La complexité demeure le talon d’Achille du support informatique, malgré tous les efforts des équipes techniques. En effet, ces dernières doivent gérer des environnements de plus en plus complexes associant plateformes cloud, systèmes informatiques distribués ou déploiements mobiles, en plein essor dans les entreprises. À ces défis viennent s’ajouter des impératifs de rapidité en matière de stockage des données, d’analyse et de reporting. Ainsi, un récent livre blanc du bureau d’études EMA révèle que 35 % des entreprises considèrent la « complexité des applications » comme le premier défi des équipes de support, suivi de près par la nécessité d’assurer un service continu en dépit de l’évolution rapide des technologies informatiques.

En conclusion, les technologies récentes ouvrent de nouveaux horizons, certes, mais elles accentuent la complexité des environnements informatiques, limitant ainsi l’avantage global conféré par leur adoption. Comment les équipes de support informatique peuvent-elles échapper au dilemme de la complexité ?

Des problèmes d’ordre pratique

Avant de pouvoir s’atteler au problème de la complexité globale, il est essentiel de cerner les principaux défis associés aux environnements informatiques actuels.

Shadow IT. Ce phénomène tient au fait que les collaborateurs de l’entreprise accèdent à un large éventail de services cloud, mobiles et sur site, souvent sans consulter le département informatique. Au départ simple nuisance, ce problème peut vite s’aggraver et entraîner des perturbations majeures, surtout si les utilisateurs finaux infectent accidentellement les réseaux. Et même si de nombreuses entreprises affirment ne pas être concernées par le problème, les données d’une étude récente démontrent le contraire : le nombre de services cloud réellement utilisés s’élève à plus de 700 alors que les départements informatiques l’estiment en moyenne à 51. Même en pleine connaissance de cause, gérer un tel nombre d’applications serait très difficile, et la tâche devient presque insurmontable lorsque ces services échappent au contrôle et à la visibilité de l’équipe informatique.

Recoupements technologiques. Il s’agit de conflits entre ressources d’entreprises locales, déploiements distribués et logiciels ou plateformes d’éditeurs tiers. Si l’essor du cloud a contribué à aplanir bon nombre de problèmes survenant à la périphérie du réseau, de nombreuses équipes informatiques ont du mal à identifier les problèmes de performance et les défaillances des applications liées à ces recoupements technologiques.

Frustration des utilisateurs finaux. Comme l’a constaté Tech Target, les utilisateurs finaux ont un seuil de tolérance très faible pour les complications survenant au niveau des applications. Prenons l’exemple du déploiement d’une infrastructure de postes de travail virtuels (VDI). Du point de vue de l’utilisateur final, les exigences semblent simples : l’environnement virtuel doit offrir les mêmes performances que les solutions physiques antérieures. En revanche, pour les équipes informatiques, la fourniture de services informatiques peut devenir rapidement épineuse puisque les problèmes ne sont plus confinés aux ordinateurs physiques ou au réseau local. L’identification et la résolution de problèmes apparemment simples peuvent demander beaucoup de temps et d’efforts, et l’attente de solutions devient inacceptable pour les utilisateurs finaux. En outre, comme 65 % des perturbations informatiques sont signalées par les utilisateurs avant d’être détectées par des outils d’analyse, les équipes techniques sont reléguées à un rôle purement réactif. Une telle approche laisse peu de marge de manœuvre et conduit près de la moitié des employés à tenter de résoudre leurs problèmes eux-mêmes avant de faire appel au support informatique, avançant pour explication leur « mauvaise expérience » du support ou « l’incapacité » des informaticiens à les dépanner rapidement.

Une approche inversée du problème

Face à une telle situation, comment les équipes informatiques peuvent-elles maîtriser leur budget tout en continuant d’offrir des services capables de résoudre ce défi ? Il faut avant tout envisager le problème selon une perspective diamétralement opposée. Au lieu de s’appuyer sur un système centralisé de surveillance et de demande d’assistance qui contraint les utilisateurs à diagnostiquer leurs propres problèmes, et les équipes informatiques à s’en remettre aux technologies internes pour atteindre la périphérie du réseau, les sociétés doivent envisager une approche « outside-in », c’est-à-dire axée sur l’expérience utilisateur.

Qu’entend-on par là ? Une telle démarche consiste à s’attaquer aux problèmes là où ils se produisent, à savoir au niveau de l’utilisateur final. En implémentant des outils d’analyse et de reporting informatiques en temps réel, appliqués automatiquement à l’ensemble des services réseau, les équipes techniques disposent d’une visibilité directe sur les problèmes affectant les opérations journalières. Qui plus est, en s’appuyant sur l’analyse des opérations informatiques, les services de support bénéficient en un coup d’œil d’une visualisation graphique transparente du réseau, ce qui leur permet d’améliorer tant leur productivité que leur proactivité.

Les avantages d’une telle approche sont multiples :

-Visibilité accrue — Au lieu de se contenter de gérer les symptômes, il est possible d’identifier les causes premières des problèmes puisque la surveillance réseau est accessible sur demande. Prenons l’exemple d’un scénario classique de demande d’assistance et d’intervention où de nombreux utilisateurs finaux signalent des problèmes de performance et des défaillances d’applications apparemment sans rapport entre eux. L’équipe informatique règle chaque problème séparément. Le répit n’est que temporaire puisque les problèmes ne cessent de réapparaître. Dans un scénario de visibilité totale, il est possible d’identifier des éléments communs, par exemple, des systèmes d’exploitation qui n’ont pas été mis à niveau ou des conflits avec les applications mobiles. Même si tous ces problèmes engendrent des symptômes différents, ils peuvent en revanche être résolus en une seule fois, par une mesure corrective spécifique.

-Opérations en temps réel — Les utilisateurs finaux n’attendent pas. Lorsqu’ils rencontrent des problèmes informatiques, ils ont tendance à agir de leur propre initiative, surtout si le support technique est lent à réagir. Ils vont tenter de chercher eux-mêmes des solutions sur internet ou d’utiliser des applications de substitution non conformes pour continuer à effectuer leur travail. Les outils de surveillance et d’analyse centrés sur l’utilisateur final permettent aux équipes informatiques de réagir immédiatement, comme l’attendent les utilisateurs, au lieu de les laisser se débrouiller seuls.

-L’équipe informatique au service de l’utilisateur — Comme l’observe Forrester dans le rapport Technology Adoption Profile, 90 % des cadres interrogés déclarent que les utilisateurs finaux sont en proie à des problèmes technologiques qu’ils n’ont eux-mêmes « aucun moyen de détecter ». En conséquence, le personnel est convaincu que le support informatique ne peut pas les aider, voire ne fait qu’empirer les choses. Et si les techniciens du support parvenaient à résoudre par anticipation les problèmes des utilisateurs finaux avant même qu’ils ne soient impactés ou ne nécessitent une assistance ? Et si les utilisateurs qui viennent à peine de remarquer des problèmes de performances recevaient un e-mail les informant que le département informatique est au courant de leur problème et a déjà pris des mesures pour le résoudre ? Au lieu d’être critiqué par les utilisateurs finaux, le département informatique gagnerait leur respect.

-Évolution du rôle de directeur informatique — En dépit de l’évolution du rôle des services informatiques, qui deviennent un véritable moteur d’activité, bon nombre d’entreprises continuent de considérer la DSI comme une fonction de gestion du statu quo. Selon cette philosophie, si aucune panne ne se déclare, alors le département informatique a rempli sa mission. Une analyse en temps réel centrée sur l’utilisateur final peut contribuer à changer cette perception et offrir au personnel technique la possibilité d’endosser un nouveau rôle en tant que catalyseur d’activité stratégique, plutôt que celui d’un simple centre de coûts. Par exemple, une surveillance en continu des services fournis aux utilisateurs peut aider à identifier des goulots d’étranglement ou des problèmes de bande passante des réseaux qui, une fois corrigés, pourraient réduire sensiblement les coûts.

-Sécurité renforcée — La visibilité accrue conférée par l’approche outside-in (centrée sur l’utilisateur final) permet aux directions informatiques de surveiller et d’identifier plus facilement les problèmes de sécurité potentiels avant qu’ils ne compromettent les réseaux de l’entreprise.

Le processus est irréversible : la complexité informatique suit une courbe exponentielle et, parallèlement, l’utilisateur final a des attentes toujours plus élevées puisqu’il exige des terminaux et réseaux d’entreprise des performances similaires à celles de ses terminaux mobiles personnels. De ce fait, le modèle de service uniquement réactif ne peut plus répondre au besoin de vitesse et de simplicité des entreprises. Pour surmonter ces défis, les entreprises de pointe envisagent d’adopter une approche outside-in, pilotée par une analyse de l’expérience utilisateur et une surveillance en temps réel des systèmes informatiques.

____________
Vincent Bieri est Chief Product Evangelist & Co-Founder chez Nexthink