L’Intelligence Artificielle (IA) est en train de transformer notre monde mais gérer l’avalanche de données qui l’accompagne pose des défis majeurs en matière de sécurité, de mobilité et d’empreinte carbone. Comment les entreprises peuvent-elles garantir la continuité de leurs applications IA tout en relevant ces défis ? Comment repenser l’infrastructure IT pour l’IA ?
Notre société est en train de vivre avec l’intelligence artificielle sa 4ème révolution industrielle. Cette technologie véritablement disruptive semble n’avoir qu’une seule limite, celle de la créativité humaine. Santé, finance, vie quotidienne, … si nous ne connaissons pas encore le champ des possibles, nous pouvons déjà affirmer avec certitude que les charges de travail liées à l’IA compteront parmi les plus critiques. Mais cette nouvelle donne fait émerger des questions essentielles. Comment ces applications clés pourront-elles être maintenues fonctionnelles et leurs données sous-jacentes sécurisées sans pour autant entraver leur mobilité ? Comment optimiser l’infrastructure pour réduire l’empreinte carbone générée par la masse de données ?
Maintenir l’activité des charges de travail IA avec le CDP (continuous data protection)
Si les backups maintiennent les données sécurisées à grande échelle, elles ne sont cependant pas adaptées à la continuité des activités et à la reprise après sinistre des workloads les plus critiques comme ceux de l’IA. Pourquoi ? Parce qu’elles ne protègent que des serveurs individuels et non les applications dans leur globalité. Lorsque les données sont restaurées via une sauvegarde, les applications doivent être ensuite réassemblées manuellement à partir de leurs composants individuels. Une opération chronophage qui entraine de longs délais de restauration. Pour garantir la disponibilité constante des applications critiques basées sur IA, les solutions de reprise après sinistre représentent un choix plébiscité par de plus en plus d’entreprises, notamment le continuous data protection (CDP), une technique permettant la protection des données. Toute modification de données est enregistrée dans un journal au fur et à mesure des écritures ce qui permet de revenir à l’état existant en quelques secondes juste avant l’attaque ou la perturbation et sans perte de données.
Les applications d’IA critiques ont besoin des RPO et des RTO les plus bas possibles
La réplication des données quasi-synchrone offre la meilleure alternative pour obtenir des temps de RPO (objectifs de point de récupération) et de RTO (objectifs de temps de récupération) les plus bas possible. Alliance les hautes performances de la réplication synchrone mais sans les exigences élevées en matière de bande passante réseau, de latence ou d’infrastructure, elle est techniquement une réplication asynchrone mais similaire à la réplication synchrone dans la mesure où les données sont écrites sur plusieurs emplacements en même temps, tout en autorisant un léger délai entre les emplacements primaires et secondaires. La réplication quasi-synchrone est toujours active et ne réplique en permanence vers le site de récupération que les données modifiées, en quelques secondes, sans nécessiter de programmation ou de snapshots. La réplication quasi-synchrone offre des atouts indéniables pour les workloads IA qui ont des charges d’écriture élevées et/ou impliquent de grandes quantités de données : haute disponibilité, meilleure protection des données, vitesses d’écriture plus rapides que la réplication synchrone, etc.
La mobilité des données d’IA crée d’énormes défis pour l’infrastructure IT
Si l’IA fonctionne grâce aux données, l’échelle et le volume data générés dépassent tout ce que l’IT a connu jusqu’à ce jour. Même les applications les plus simples utilisent des exaoctets de données brutes qu’il faut préparer pour l’entrainement du modèle et l’inférence ultérieure. Les ensembles de données sont souvent créés à la périphérie, puis transférés pour être traités dans un référentiel de données centralisé. Et à la fin de leur cycle de vie, ils doivent également être archivés en vue d’un éventuel réentraînement. De facto, ces immenses quantités de données doivent pouvoir être déplacées en permanence. Cependant, la technologie réseau actuelle et les solutions de gestion des données basées sur la réplication synchrone, ne sont pas adaptées. Seule la réplication asynchrone est capable de garantir une réplication continue avec une faible bande passante au niveau d’un bloc sans produire de pics élevés de transferts de données.
Réussir à sauvegarder, gérer et déplacer ces gigantesques quantités de données pose ainsi d’immenses défis en matière d’infrastructure IT ; cette dernière jouant un rôle majeur dans le respect des engagements environnementaux des entreprises et l’avancée vers une IA plus green. Il est désormais urgent d’adopter de nouvelles solutions qui favorisent la mobilité et la sécurité des données tout en limitant l’impact carbone. La bonne combinaison de modèles, processeurs, datacenters verts, sources d’énergie, supportée par des stratégies de réplication et de reprise après sinistre sont des pistes à explorer.
____________________________
Par Siham Eisele, Regional Sales Director, Zerto (une société de Hewlett Packard Enterprise).