Face au nombre croissant d’entreprises qui optent pour les environnements de cloud privés et publics, le concept de la répartition de la charge du trafic applicatif dans le cloud connait une évolution significative. Il y a plusieurs raisons à cet intérêt croissant.

– Agilité : la migration vers le cloud public est sans aucun doute motivée par le désir des entreprises d’offrir plus rapidement un éventail élargi de fonctionnalités. Des clouds publics tels que Microsoft Azure et AWS leur apportent la capacité et les moyens nécessaires pour gérer cette agilité ;
– Efficacité, ou faire plus avec moins : cette approche est source de pression pour les DSI. Avec l’avènement des infrastructures en tant que service (IaaS), la gestion est divisée entre les infrastructures et les applications. L’approche IaaS englobe les enjeux de disponibilité, d’élasticité et d’efficacité des opérations, ainsi que de coûts, tandis que les équipes en charge des applications se concentrent sur l’efficacité de leur distribution.
– Déploiements multiclouds : La plupart des entreprises adoptent une infrastructure hybride qui couvre plusieurs environnements de cloud afin d’équilibrer l’efficacité et la confidentialité des données. Les informations moins sensibles seront stockées dans des clouds publics, tandis que les données confidentielles demeureront dans leur cloud privé.

Répartition de la charge dans le cloud : où en sont les entreprises ?

Le concept de répartition avancée de la charge s’est imposé comme un élément majeur des activités informatiques modernes. Cette technologie a évolué en fonction des trois exigences DevOps présentées ci-dessus. Historiquement, cette tâche permettait de gérer exclusivement la répartition du trafic entre les serveurs et, dans certains cas, le déchargement SSL (SSL offload).

Les répartiteurs de charge sont au cœur du trafic applicatif des entreprises. Ils occupent une position critique qui leur permet de visualiser une énorme quantité d’informations concernant les données échangées.

Cette répartition avancée de la charge apporte davantage de valeur et d’efficacité à l’équipe opérationnelle. C’est notamment le cas grâce à l’architecture de microservices et du déploiement de conteneurs de data centers ou des environnements de conteneurisation de type Kubernetes.

Cinq avantages des répartiteurs de charge pour le cloud

1. Optimiser la visibilité, la pertinence et les capacités d’analyse

En augmentant la visibilité, les insights et les capacités analytiques, les entreprises peuvent atteindre plusieurs objectifs.

– Améliorer la surveillance du trafic réseau en intégrant le trafic applicatif à la surveillance traditionnelle des infrastructures. Les entreprises peuvent ainsi savoir quel type de trafic arrive et s’il est traité avec efficacité ;
– Des rapports détaillés et des statistiques relatives à la santé du réseau permettent de mieux comprendre le fonctionnement de l’infrastructure ;
– Des équipes en charge de l’exploitation peuvent exécuter le processus de dépannage avec une efficacité accrue ;
– Les outils analytiques et les informations pertinentes (insights) deviennent proactifs. Une entreprise peut identifier un problème de latence et le résoudre avant que les utilisateurs n’ouvrent des tickets d’incident ;
– Utiliser des insights pour exécuter des actions automatiquement. L’infrastructure peut être modulée automatiquement en cas de modification du trafic applicatif, et il est possible de bloquer un utilisateur identifié comme un attaquant.

2. Sécurité intégrée

Les répartiteurs sont directement incorporés dans le flux du trafic réseau. Cette position est idéale pour comprendre le comportement des données échangées et de séparer le bon grain de l’ivraie. Le répartiteur de charge peut ainsi détecter automatiquement les anomalies et bloquer tout trafic malveillant.

La sécurité de l’infrastructure revient aux fournisseurs de clouds publics comme AWS et Azure. Au niveau des applications en revanche, la sécurité est à la charge du propriétaire, conformément au principe de responsabilité partagée en matière de sécurité. Il est à ce titre essentiel que les entreprises comprennent l’importance de la sécurité totale des piles d’applications et qu’elles cherchent à utiliser des répartiteurs de charge à sécurité intégrée.

Les solutions de sécurité sont traditionnellement très complexes et difficilement configurables. Les outils modernes permettent aux équipes d’exploitation de configurer et d’utiliser rapidement les fonctions critiques. L’utilisation de répartiteurs de charge avancés capables de s’intégrer à des solutions de sécurité avancées peut augmenter l’efficacité et le degré de protection.

 3. Gestion centralisée

La gestion centralisée évite de se connecter à des répartiteurs de charge individuels. Il est possible de visualiser l’ensemble de la pile d’applications sur un tableau de bord unifié. Les clouds publics permettent d’exécuter la pile d’applications dans plusieurs régions, et l’administration centralisée de gérer le trafic applicatif dans l’ensemble des régions à partir d’une console unique, avec à la clé une efficacité accrue doublée d’une administration simplifiée.

Les répartiteurs de charge avancés s’intègrent aux outils d’administration centralisés. La gestion centralisée des règles a encore plus de valeur lorsque des répartiteurs sont déployés sur plusieurs clouds. Une telle puissance accroît la visibilité et la capacité d’analyse centralisées de l’environnement. L’analyse centralisée assure la corrélation entre les données provenant de différents sites, ce qui permet d’accéder à des informations actionnables dans l’ensemble de l’environnement.

Les observations associées à un site donné, notamment lorsqu’elles sont liées à des cyberattaques, peuvent être utilisées pour mener des actions proactives sur d’autres sites. Par exemple, un cyberattaquant identifié sur un site pourra être bloqué sur tous les sites à partir d’une console centralisée.

 4. Automatisation et intégration multiclouds

Plus de 70 % des entreprises opèrent dans un environnement multiclouds et dans ce cadre, toutes les technologies qu’elles adoptent doivent s’intégrer à l’ensemble de l’environnement : clouds publics ou privés, data centers et autres serveurs « bare metal ». Cette exigence d’intégration s’applique également au choix des répartiteurs de charge.

Il est donc important que ces répartiteurs disposent d’interfaces API pour optimiser le processus d’intégration. De nombreuses entreprises ont déjà mis en place des pipelines d’intégration – et de livraison continue (CI/CD). Les répartiteurs de charge doivent s’intégrer aux plateformes d’infrastructure à la chaîne d’outils DevOps.

L’intégration n’est finalisée que lorsque les appels d’API sont possibles dans toutes les directions. Les outils DevOps peuvent appeler l’API de répartition de la charge et le répartiteur à la responsabilité d’appeler l’API externe en cas d’alerte ou d’événement.

 5. Intégration des conteneurs et des systèmes d’orchestration

L’industrie adopte de façon croissante des conteneurs et des systèmes d’orchestration de conteneurs. Selon une enquête récemment publiée par le cabinet 451 Research, 71 % des entreprises utilisent ou évaluent des options comme Kubernetes ou Docker.

Les applications évoluent d’une architecture monolithique vers une architecture à base de microservices. De leur côté, les déploiements migrent des serveurs matériels traditionnels à base de machines virtuelles fonctionnant dans le cloud, vers des conteneurs fonctionnant dans plusieurs environnements.

Les technologies Kubernetes et Docker ont été adoptées par de nombreux acteurs majeurs de l’industrie, notamment Google, Amazon, Microsoft, VMware, Red Hat, etc., s’imposant de facto comme des standards du marché.

Les critères de choix des data centers doivent inclure l’intégration aux technologies de conteneurs. Les applications conteneurisées doivent être automatiquement modulées en fonction des besoins tout en conservant une visibilité complète, évitant ainsi de configurer les stratégies ou de gérer les mises à l’échelle de façon manuelle.

Compte tenu des avantages significatifs que procure la répartition de la charge dans le cloud, on comprend aisément pourquoi les entreprises optent pour des solutions nouvelles et avancées, une approche qui évolue vers la lutte contre des cybermenaces.

 

____________
Yann Fralo est Country Manager A10 Networks France