L’utilité d’outil d’intelligence artificielle comme les caméras intelligentes en a démultiplié les applications dans divers secteurs. Par leur nombre, leurs fonctionnalités, et leurs applications, ces caméras intelligentes sont l’une des principales sources de prolifération de données au monde. Leur volume exponentiel contraint les entreprises à repenser plus rationnellement le stockage des données pour se saisir de nouvelles opportunités spéculatives.

Les caméras intelligentes, issues de la vision industrielle, sont des caméras enrichies d’une électronique permettant non seulement la captation et le stockage des images, mais aussi leur analyse et leur traitement, ainsi que leur transmission aux systèmes environnants.

Pour rappel, la vision industrielle est une technique de reconnaissance visuelle qui consiste à appréhender plusieurs images de l’objet ou de la situation à visualiser, à les digitaliser pour les rendre utilisables par un logiciel de traitement afin qu’il agisse sur la base de critères établis, par exemple en éjectant un produit défectueux de la chaîne de production.

Au sein des caméras intelligentes, un microprocesseur relié à la mémoire exerce les fonctions d’un ordinateur. Il garantit une quasi-autonomie et dirige le capteur d’images ainsi que les circuits de l’interface.

Dotées de capacités de traitement en temps réel pour fournir des informations de contexte dépassant la seule imagerie (déplacements de personnes, d’animaux, température, etc.), les caméras intelligentes sont de plus en plus présentes et leurs applications se développent rapidement dans de nombreux secteurs comme l’imagerie médicale, les transports ou l’industrie.

Le développement du nombre de caméras intelligentes et de leurs nombreuses propriétés, est source d’une prolifération de données non-structurées. Les prévisions anticipent une envolée jusqu’à 163 zettabytes d’ici 2025. Leur succès exhorte donc les entreprises à s’interroger sur l’adéquation de leurs systèmes de gestion et de stockage des données.

Les entreprises se retrouvent face à des injonctions paradoxales. La plupart des données issues des caméras intelligentes sont générées à la périphérie, or l’infrastructure de traitement et de stockage reste centralisée sur quelques datacenters ou sur le cloud public. Pourtant, les transferts de données non structurées vers un emplacement centralisé coûtent cher, exposent à des risques cyber, ralentissent le processus d’entraînement des algorithmes d’apprentissage et le développement de l’intelligence artificielle, avec des conséquences potentielles graves. Il incombe donc aux entreprises de se tourner vers une solution plus rationnelle.

Dépasser l’architecture centralisée

L’informatique de périphérie (ou edge computing) permet déjà de traiter et d’analyser les données au plus près de leur source, comme dans le cas des caméras intelligentes, qui analysent ce qu’elles enregistrent. L’edge computing permet de réaliser des économies conséquentes via une architecture plus rationnelle. Et pour cause, les prévisions du cabinet de conseil et d’audit Gartner annoncent que d’ici 2025, près de 75% des données des entreprises seront créées et traitées hors des datacenters traditionnels ou du cloud.

Pour chaque entreprise qui réceptionne et centralise des pétaoctets de données non structurées, le processus d’entraînement des algorithmes de machine learning est ralenti. Aussi l’approche centralisée du traitement des données retarde-t-elle le développement de l’intelligence artificielle et ses mises à jour, avec des conséquences relativement graves selon les cas d’utilisation. Dans un contexte industriel par exemple, les effets collatéraux peuvent amener à manquer des malfaçons de produits, au risque d’engager des frais conséquents pour l’entreprise et de mettre des vies en péril.

De plus en plus d’entreprises ont commencé à se tourner vers des architectures distribuées et décentralisées : la plupart des données y sont gardées et traitées à la périphérie pour affronter les difficultés liées aux retards, aux temps de latence et à la rapidité de traitement des données. Le déploiement de l’analyse de données en périphérie et des technologies de machine learning fédérées possèdent donc de nombreux avantages, en plus de pallier les failles en matière de sécurité et de confidentialité inhérentes à un système centralisé.

Dans le cas d’un grand réseau de surveillance qui réceptionnerait constamment des enregistrements, l’entraînement efficace d’un modèle de machine learning consisterait à lui demander de faire la distinction entre le passage d’enregistrement dans lequel un élément atypique est détecté d’une part et les heures d’enregistrement d’un hall d’immeuble où rien ne se passe d’autre part. En pré-analysant les données à la périphérie et en déplaçant seulement les extraits concernés à un point centralisé, les entreprises gagnent du temps, épargnent sur les frais de bande passante, et font des économies.

Les architectures décentralisées présentent donc nombre davantage mais introduisent plus de complexité. Sélectionner et déployer des infrastructures d’élaboration et de stockage à la périphérie, avec une gestion centralisée, améliore significativement l’efficacité du système dans son ensemble ainsi que les coûts liés à sa maintenance. Il ne faut toutefois omettre l’archivage : face au cumul de données non exploitables illico, mais potentiellement vitales pour l’avenir, des solutions de stockage agiles et économiques s’esquissent.

Stockage hiérarchisé : de la donnée source de frais à la donnée source de revenus

Les données liées au déploiement et à l’exploitation de l’intelligence artificielle ne servent pas toutes la même finalité, ni ne répondent aux mêmes exigences d’accès. Certaines requièrent une analyse immédiate, le reste une conservation pour une utilisation éventuelle ou future. Ainsi, le recours à des solutions modulaires présente beaucoup d’avantages.

Nombre d’entreprises s’appuient sur le stockage en réseau ou sur cloud public pour leurs immenses volumes de données non structurées : un choix onéreux et pas nécessaire.

Bien des images et vidéos collectées pour l’entraînement des outils d’intelligence artificielle doivent être stockées définitivement. Ainsi, dans les systèmes d’assistance aux chauffeurs et aux véhicules autonomes, l’intelligence artificielle décide en fonction des données collectées en temps réel. Cependant, si un problème émerge des mois ou des années plus tard, les entreprises doivent pouvoir retrouver et analyser ce qui s’est passé. Quoique primordial, ce stockage a un coût moyen de 3351 dollars (environ 2760 euros par téraoctet par an), or, un véhicule autonome moyen collecte deux téraoctets de données par heure.

Dans le secteur des véhicules autonomes, où la plupart des données sont destinées au stockage permanent et rarement utilisées, elles pourraient être stockées à moindre coût par échelon. Des solutions de stockage sont accessibles à partir de 40 euros par téraoctet.

Dans une architecture hiérarchisée, le contenu est placé en stockage rapide pendant la période active où les données sont traitées et analysées, tandis qu’une copie de sauvegarde demeure archivée sur une solution de stockage économique comme le stockage en bande magnétique. Quantitativement, la bande coûte moins, permet de stocker plus, et ne requiert ni alimentation, ni refroidissement, soit une ultérieure économie d’énergie. Qualitativement, le stockage en bande permet de conserver les données en l’état pendant 30 ans.

De nouveaux développements dans le stockage et l’analyse des données non structurées entrent sur le marché. Pour en tirer avantage, les entreprises doivent se concentrer sur l’implémentation de solutions modulaires, de bout en bout, facilitant leur mise à jour lorsque de nouveaux éléments se présentent. Malgré la présence de solutions optimales, le transfert, traitement et stockage de la masse de données générées par la vision artificielle continueront à mettre les entreprises à l’épreuve.

Le stockage de données non structurées présente néanmoins de nouvelles opportunités à saisir : des évolutions inédites pourraient être appliquées aux vidéos et aux images. Ainsi, les données stockées issues des caméras intelligentes pourraient devenir une source de revenus pour les entreprises, et non plus un coût. De même, lorsque des technologies d’analyse plus avancées arriveront progressivement sur le marché, nombre d’entreprises pourraient réutiliser les données déjà archivées pour développer leurs propres nouveaux produits. Certaines organisations commencent déjà à se saisir de ce potentiel spéculatif. Ce dernier représente pour les entreprises la meilleure raison de prioriser le traitement et le stockage intelligents des données.
___________________

Par Stéphane Cardot, Director Pre-Sales EMEA, Quantum