Internet tel qu’on le connaît est une passoire numérique : chaque interaction est une porte ouverte aux cyberattaques. Et si on repensait tout, en basculant vers une connectivité où seuls les échanges strictement nécessaires ont lieu ? C’est la promesse du réseau 2.0, une révolution inspirée du Zero Trust qui redonne aux utilisateurs le contrôle total de leurs données.
Internet tel que nous le connaissons aujourd’hui repose sur une architecture fondamentalement défaillante. La cause ? Sa nature bidirectionnelle. Chaque interaction en ligne, qu’il s’agisse de consulter un site web, de faire un achat ou de participer à une discussion, expose les utilisateurs à d’éventuelles cyberattaques. Des cyberattaques sous forme de malwares, phishing et d’exploitation de vulnérabilités. Si la bidirectionnalité facilite l’accès aux ressources souhaitées, elle ouvre également la voie à des acteurs malveillants, souvent à l’insu des utilisateurs. Dans un monde largement dominé par le cloud et l’intelligence artificielle, il devient essentiel de réinventer nos modes de connexion, de partage et de sécurisation des données.
Le réseau 2.0 inaugure une nouvelle ère de connectivité unidirectionnelle, ancrée dans les principes du Zero Trust, qui promet de transformer en profondeur la sécurité et la gestion des données. Ce modèle repose sur un principe fondamental : considérer chaque utilisateur comme une entité isolée et protégée de toute exposition extérieure. Les ressources, au lieu d’être « envoyées » de manière proactive vers l’utilisateur, sont désormais « sollicitées » directement par ce dernier, lui conférant un contrôle total sur les connexions autorisées ou refusées. Cette approche, à la fois simple et révolutionnaire, pourrait permettre à Internet de retrouver sa vocation initiale : une plateforme dédiée à l’éducation et au partage authentique d’informations, libérée des interférences liées au marketing intrusif et aux cyberattaques. Inspiré par des concepts éprouvés, tels que les standards téléphoniques d’autrefois ou les premières architectures proxy, ce modèle redéfinit les fondations de la connectivité.
Un de mes collègues se vantait récemment de posséder un téléphone portable « Zero Trust », qu’il décrivait comme une version modernisée du standard téléphonique traditionnel. Concrètement, il avait intégré un niveau contextuel au filtrage des appels : seuls les contacts préalablement enregistrés dans son appareil étaient autorisés à le joindre. Ainsi, même si une personne obtenait son numéro, l’appel serait automatiquement bloqué. Ce principe de contrôle existe déjà sur certaines plateformes de réseaux sociaux modernes, comme Snapchat. Sur Snapchat, la relation entre l’utilisateur et le compte est transitoire et protégée par un pseudonyme choisi arbitrairement. Pour entrer en contact avec un utilisateur, il faut à la fois connaître son nom d’utilisateur et être autorisé à le contacter. Un changement subtil mais significatif. Alors, pourquoi ne pas généraliser cette approche à l’ensemble des domaines de la connectivité numérique ?
Mais concrètement, qu’est-ce que cela signifie ?
Une nouvelle ère de connectivité et de souveraineté des données
À l’origine, le réseau 2.0 a été conçu pour redonner aux individus le contrôle absolu sur leurs interactions numériques, un concept que l’on appelle souveraineté numérique. En s’inspirant des principes du Zero Trust, ce modèle permet aux utilisateurs de déterminer avec précision quand et comment interagir avec d’autres personnes en ligne. Chaque demande de communication exige une autorisation explicite et neutralise efficacement les menaces traditionnelles, telles que le phishing.
Pour que le réseau 2.0 tienne ses promesses, transformer la connectivité ne suffit pas : on doit également repenser en profondeur la gestion et le stockage des données. A l’heure actuelle, les informations personnelles ne sont généralement pas contrôlées par les individus, mais collectées, conservées et échangées par de grandes entreprises. En réalité, nous disposons de très peu de contrôle sur nos propres données. Cette situation n’a pas échappé à l’attention des gouvernements. Dans le contexte géopolitique actuel, les États s’attachent de plus en plus à la souveraineté des données et reconnaissent le besoin de réguler leur circulation à l’intérieur de leurs frontières et de les protéger contre toute ingérence extérieure de grande ampleur.
Aujourd’hui, les données personnelles sont systématiquement confiées à de grandes entreprises et stockées dans d’immenses bases de données, dont on présume qu’elles sont suffisamment sécurisées. Dans la logique du réseau 2.0, ces informations nous appartiennent et ne sont accessibles à des tiers qu’avec notre autorisation explicite. En d’autres termes, elles restent sous notre contrôle et ne quittent jamais réellement notre possession. Elles ne sont consultées que lorsque cela est strictement nécessaire. Par ailleurs, l’histoire prouve que les grandes bases de données centralisées sont des cibles privilégiées des cyber attaquants : plus elles regorgent d’informations sensibles, plus elles attirent leurs convoitises. Mais que se passerait-il si les données n’étaient plus centralisées à grande échelle, mais conservées à une échelle individuelle, sous le contrôle direct des utilisateurs ?
Cette approche révolutionne notre relation aux données : les entreprises doivent désormais obtenir un consentement explicite chaque fois qu’elles souhaitent accéder à nos informations personnelles.
Pour mieux comprendre cette évolution, on peut la représenter sous la forme d’un modèle hiérarchique de gestion des données :
1 – Les gouttelettes de données : ce sont les utilisateurs eux-mêmes qui conservent et gèrent leurs informations personnelles via des solutions de stockage chiffré.
2 – Les flaques de données : ces gouttelettes se regroupent en ensembles localisés et conformes aux réglementations régionales, ce qui limite efficacement les risques.
3 – Les lacs de données : de vastes réservoirs de données, utilisés à des fins d’analyse, qui rassemblent les flaques sous une gouvernance stricte, incluant notamment des techniques d’anonymisation.
Conforme aux réglementations telles que le Règlement général sur la protection des données (RGPD) de l’Union européenne et la loi sur l’intelligence artificielle (IA), cette segmentation en trois volets contribue également à réduire les risques liés au stockage centralisé des données.
Défis et réflexions
La transition vers le réseau 2.0 soulève certains défis, cela ne fait aucun doute. Elle remet d’abord en question la capacité des entreprises à recourir à des pratiques telles que le marketing direct, qui envahit nos boîtes de réception, ou à l’analyse de vastes ensembles de données centrées sur les individus. En d’autres termes, cette évolution pourrait bouleverser le modèle économique qui sous-tend la relation financière entre ces entreprises et leurs consommateurs.
Ces dernières années, nous avons assisté à d’importants changements en matière de responsabilité des données, avec des résultats probants. Prenons l’exemple du traitement des cartes bancaires : la législation sur les informations de paiement par carte (PCI) a contraint les entreprises à restituer ces données sensibles. À l’époque, il leur semblait inconcevable de proposer un service en ligne sans conserver les informations liées aux cartes bancaires. Aujourd’hui, ces mêmes entreprises fonctionnent parfaitement bien et, pour beaucoup, se disent soulagées de ne plus porter la lourde responsabilité de protéger ces données.
Pourquoi dans ce cas ne pas appliquer la même logique à l’ensemble des informations d’identification personnelle (IIP) ? De nombreuses entreprises continuent de s’appuyer sur des systèmes historiques et des processus opérationnels souvent obsolètes, parfois en place depuis des décennies. L’adoption de nouveaux protocoles peut s’avérer complexe, car elle nécessite d’abord de surmonter la réticence des parties concernées, attachées à des procédures jugées fiables. Or, une véritable transformation requiert une capacité d’adaptation continue. Parfois, il faut réécrire les règles du jeu et la législation s’est révélée être un pilier fondamental dans la mise en œuvre de certains de ces changements.
Aujourd’hui, il devient de plus en plus courant que les équipes réseau soient directement rattachées aux départements de sécurité, plutôt qu’aux services d’infrastructure. Ce changement structurel illustre une intégration plus profonde de la sécurité, qui est désormais considérée comme un pilier central de la stratégie réseau, et non plus comme une simple fonction secondaire. Cependant, la mise en œuvre de nouvelles technologies et architectures dépasse les simples enjeux techniques : elle requiert une volonté claire de transformation. Pour mener à bien cette transition, il est essentiel d’investir dans la formation et le perfectionnement des équipes informatiques.
Étapes de la mise en œuvre
Pour réussir la transition vers le réseau 2.0, les entreprises peuvent prendre un certain nombre de mesures concrètes : adopter les principes du Zero Trust, repenser la souveraineté des données, privilégier la classification des données et adopter une approche fondée sur la répartition stratégique des données.
Réinventer un écosystème numérique sécurisé et centré sur l’utilisateur
Le réseau 2.0 suscite un engouement particulier, car il ne s’agit pas que d’une avancée technologique, mais d’une véritable refonte de l’écosystème numérique. Il permet à chacun de reprendre pleinement le contrôle de sa vie numérique et de promouvoir un Internet conçu dès l’origine pour privilégier la sécurité, le respect de la vie privée et l’autonomie des utilisateurs.
Mais pour que cet avenir prometteur devienne réalité, encore faut-il que les chefs d’entreprise, les spécialistes de la technologie et les responsables politiques unissent leurs efforts. La transition vers le réseau 2.0 pourrait s’avérer complexe, mais le jeu en vaut vraiment la chandelle. Ce nouveau modèle promet un monde numérique plus sûr, plus résilient et réellement centré sur l’utilisateur. Au fond, il redéfinira notre capacité à maîtriser un environnement technologique désormais omniprésent dans nos vies.
____________________________
Par Martyn Ditchburn, CTO pour la région EMEA, ZScaler