À mesure que les clouds se multiplient, les risques se fragmentent. Prévoir l’imprévisible devient une compétence à part entière — et un facteur de survie numérique.

Entre infrastructure Cloud ou infrastructure on Prem, une tendance s’est clairement dégagée ces dernières années. Aujourd’hui, les entreprises ont adopté une approche « cloud-first », et 85 % des applications utilisées par les entreprises seront développées en mode SaaS d’ici la fin de l’année 2025.

Ce phénomène est par ailleurs nourri et accéléré par l’augmentation des données générées par les IoT et, plus récemment, par l’IA. L’adoption de l’IA et notamment des IA génératives a été plus rapide qu’anticipée. Rétrospectivement, en 2018 et 2019, les prévisions annonçaient un développement massif envisagé à l’horizon 2025 – 2030. Cette évolution a largement influencé la croissance des données dont l’accélération s’est accentuée. Une croissance qui appelle une bande passante massive pour répondre aux besoins de traitement et de stockage.

Par ailleurs, l’explosion des volumes, comme des missions confiées à l’IA, exige une gouvernance accrue, notamment concernant la conservation des données à plus grande échelle. Face à la montée des IA génératives et autres agents, les nouveaux règlements prévoient une conservation des données pour « expliquer » les analyses réalisées ayant conduit à une prise de décision ou à une action. Ainsi, l’intégralité des requêtes et prompts doit être conservée pour garantir la transparence et leur mise en conformité avec les réglementations à venir est cruciale.

Les volumes requis pour leur hébergement croîtront, sans nul doute, mais leur temporalité devra aussi certainement être adaptée : les résultats issus des modèles d’IA seront vraisemblablement examinés pendant de nombreuses années.

Ces besoins croissants requièrent une mise à l’échelle et une puissance de calcul énormes — des ressources que les hyperscalers peuvent fournir en abondance, mais alors que les gouvernements et les administrations se posent de plus en plus la question de la souveraineté, nul doute qu’il faudra repenser le modèle. Et malgré les avantages de coût, d’évolutivité et de rapidité de déploiement qu’ils offrent, l’administration et la sécurisation des clouds publics peuvent s’avérer complexes à gérer.

Des failles de sécurité sur plusieurs clouds

Naviguer dans des environnements cloud natifs, savoir où résident les données sensibles et garantir des mesures de sécurité robustes est un défi de taille.

Gérer des charges de travail fluctuantes et en rapide expansion avec différents fournisseurs de cloud nécessite une expertise approfondie, qui n’est aujourd’hui pas « la norme » disponible dans toutes les entreprises. Chaque fournisseur de cloud ayant ses propres outils propriétaires et différentes couches de protection, assurer la cohérence de la sécurité mais aussi des règles devient un défi de taille.

Un sondage récent illustre d’ailleurs cette inquiétude généralisée : 86 % des DSI mondiaux déclarent que l’explosion des données due aux environnements cloud natifs est aujourd’hui incontrôlable. Aussi, il revient aux entreprises directement d’anticiper le paramétrage mais aussi la sécurisation et les mécaniques de reprises dans le cloud. Pour ce faire, ils pourront notamment faire appel à des expertises cyber externes mais qui demeurent des coûts et ressources additionnelles à mobiliser, souvent moins aisées pour des petites structures. Avec autant de données critiques en jeu, les organisations doivent s’assurer de disposer de procédures de reprise solides pour la continuité des activités – c’est là que se joue leur résilience, non dans leur infrastructure.

Les clés de la cyber-résilience

Première étape indispensable : Prendre conscience de ce qui différencie la Cyber Recovery du disaster recovery. Se préparer aux cyberattaques, ce n’est pas la même chose que de planifier une reprise après sinistre classique (comme une suppression accidentelle, une panne matérielle, une coupure d’électricité ou une catastrophe naturelle). Dans ces cas, la restauration de copies de sauvegarde propre est relativement simple.

En revanche, la récupération après une cyberattaque est beaucoup plus difficile et peut présenter un risque de réinfection, notamment dans le cas des ransomwares.

Un plan de cyber-Recovery s’appuie sur les éléments suivants pour garantir la restauration des données et applications propres et minimiser les temps d’arrêt :

* Définir un plan de cyber-résilience : Disposer d’un plan spécifique pour la cyber-récupération, soutenu et connu par les dirigeants de l’entreprise.

* Poser le cadre de reprise minimale acceptée : Déterminer les fonctions essentielles à restaurer immédiatement après un incident et surtout accepter que tout ne pourra pas être rétabli d’un coup.

* Avoir les bons outils prêts : Disposer des outils de remédiation et des processus de sauvegarde adéquats, y compris des copies immuables et isolées pour la récupération.

* Tester rigoureusement : Non seulement des tests théoriques, mais aussi des exercices réels et des simulations d’attaques (red teaming et pentest). Les équipes doivent pouvoir réagir efficacement sous pression et toute l’entreprise doit être préparée à gérer ce type de situation de crise.

* Un environnement de restauration propre (cleanroom) : Intégrer à la plateforme de sécurité la capacité de restaurer données et applications dans un cloud vierge, pour éviter tout risque de réinfection.

Se reconstruire… en plusieurs étapes

Il ne faut pas oublier que la récupération des données n’est qu’une partie du problème : la reconstruction de l’infrastructure, des applications et des process post-attaque est la mission la plus complexe. En général, les organisations sont compétentes pour restaurer rapidement les données, mais subissent des interruptions plus longues lorsque leur infrastructure a été impactée. Un instant crucial lors duquel les salles blanches virtuelles, nées ces dernières années pour faciliter les simulations, permettent de répondre aux enjeux de reconstruction premiers.

Mais ne doit pas être négligée non plus la reprise plus « procédurale » et humaine post-attaque, qui passe par une communication transparente, une formation aux risques accrue et adaptée à chaque environnement de travail notamment.

Avec l’augmentation rapide des volumes de données et d’applications issus de l’IA et de l’IoT, disposer d’une capacité éprouvée pour restaurer rapidement doit être un élément fondamental de toute stratégie cloud. La confiance dans son plan de cyber-résilience repose sur des investissements suffisants en temps, outils et formations — des aspects à ne pas négliger, car nul n’est à l’abri d’une attaque.
____________________________

Par Milos Brkovic, DG de Commvault en France

 

À lire également :

La stratégie de cybersécurité axée sur la résilience, un gage de réussite…

Comment éviter le déficit de préparation et assurer une reprise rapide après une cyberattaque ?

Toujours plus de données, toujours plus de risques… comment rationaliser ?