Selon Andrew Ng, expert reconnu dans le domaine de l’analyse des données, l’adoption de l’intelligence artificielle (IA) doit être une décision stratégique prise à l’échelle de l’entreprise. Les organisations qui n’investissent pas de manière stratégique dans l’IA perdront peu à peu de leur part de marché face aux entreprises qui fondent leur activité sur l’intelligence artificielle.

L’IA permet de prévoir, de planifier et d’automatiser une grande variété d’opérations. Quatre tendances liées à l’intelligence artificielle doivent particulièrement être prises en compte par les entreprises : le machine learning à grande échelle, le deep learning, l’IA avancée et les systèmes autonomes.

L’utilisation de matériel plus économique et performant, ainsi que de plateformes de données de bout en bout, contribue à ces tendances. Ces plateformes optimisent la valeur des données en mouvement, et permettent de stocker, gérer et prendre en charge de manière sécurisée des traitements complexes de données au repos. Enfin, les déploiements de clouds privés et hybrides permettent aux entreprises d’évoluer rapidement et d’accéder facilement à des ressources supplémentaires.

  1. Le machine learning à grande échelle

La capacité d’apprentissage sans programmation explicite, soit le machine learning, est utilisé depuis longtemps et bien maîtrisé. La nouveauté est l’émergence relativement récente d’outils à usage général qui permettent de traiter des ensembles de données très volumineux. De plus, les experts des données peuvent désormais collaborer et présenter rapidement des solutions à impact et valeur élevés, sans se préoccuper de la gestion des ressources de calcul, de la sécurité ou de la réplication des données.

Un exemple classique de machine learning est celui de la détection des tentatives de connexion frauduleuses. Plutôt que d’indiquer explicitement chaque règle et chaque cas de fraude possible, les machines apprennent via des milliers d’exemples, comme la comparaison entre une activité habituelle et une activité frauduleuse. À partir de ces exemples, un modèle est créé et peut être utilisé pour détecter toute activité anormale. L’avantage est qu’une fois que le modèle initial a été créé, il peut évoluer en continu (ce que l’on appelle l’apprentissage en ligne), et s’améliorer automatiquement lorsqu’il est alimenté avec de nouveaux exemples de fraude. Avec des ensembles de données plus volumineux, ces modèles deviennent plus précis.

  1. Le deep learning

Le deep learning, sous-ensemble du machine learning, présente des structures qui s’inspirent approximativement des connexions neuronales du cerveau humain. Il est connu en raison de ses excellents résultats qu’il a permis de réaliser dans le cadre de tâches limitées spécifiques, comme le dépistage du cancer, la reconnaissance rétinienne, l’étiquetage automatique des images et le traitement des langues. Encore une fois, une grande part du succès du deep learning est dû aux récentes améliorations matérielles des cartes graphiques et à l’essor de nouveaux frameworks de deep learning.

Des entreprises de grande envergure ont fait preuve d’excellents résultats liés à l’application de la technologie de deep learning. Ils doivent une grande partie de leur succès à leurs équipes internes composées de nombreux experts en IA, à d’importants investissements en ressources informatiques, à des formations longues (de plusieurs semaines, voire des mois), ainsi qu’à des millions d’exemples de formation de qualité. Il est important de noter que le processus riche en capital humain de création de tous ces exemples de formation a pu être réalisé de manière évolutive via l’utilisation de services de crowdsourcing.

Par chance, les coûts de traitement brut diminuent rapidement, éliminant les obstacles à l’entrée pour tous les utilisateurs. De nombreux composants (téléchargeables) pré-formés du réseau neuronal profond réutilisables permettent aux entreprises de réduire de manière significative le temps de formation du modèle pour se concentrer sur l’optimisation de leurs réseaux en fonction de leurs cas d’utilisation spécifiques. Par exemple, il peut s’agir de la reconnaissance et de la classification d’objets dans la photographie aérienne visant à prévoir le rendement des cultures et à identifier les zones qui requièrent une attention particulière, ou de la reconnaissance des panneaux de signalisation, des personnes et d’autres véhicules à partir des caméras embarquées des voitures autonomes.

De nouvelles initiatives cherchent à passer outre la nécessité de disposer de tels ensembles de données étiquetés à grande échelle en développant des modèles génératifs. Ces modèles « doivent découvrir et assimiler efficacement l’essence des données afin de les générer ». Un exemple intéressant de cette recherche permettra de générer des images et des vidéos plausibles.

  1. L’IA avancée

Une autre tendance courante consiste à faire évaluer les résultats de l’intelligence artificielle par des êtres humains. Aussi puissante et impressionnante l’IA soit-elle devenue récemment, elle est toujours loin d’avoir acquis des compétences proches de l’humain en matière de compréhension, de réflexion et d’intuition. Par exemple, en radiologie, pour un échantillon de cellules ganglionnaires, l’IA seule présentait un taux d’erreur de 7,5 % dans la détection des cellules cancéreuses, tandis que celui d’un pathologiste humain était de 3,5 %. En travaillant ensemble, l’IA et l’être humain ont réduit le taux d’erreur à 0,5 % seulement, soit une impressionnante réduction du taux d’erreur de 85 %.

À court et moyen terme, l’association IA-humain génère de meilleurs résultats que s’ils travaillaient séparément. La composante humaine est particulièrement importante dans les cas où l’IA nécessiterait des architectures supplémentaires excessivement onéreuses de nos jours, comme des graphiques de connaissances volumineux, pour fournir du contexte et supplanter l’expérience humaine dans chaque domaine.

  1. Les systèmes autonomes

De plus en plus de systèmes fonctionnent et s’adaptent à de nouvelles circonstances avec peu ou pas d’intervention humaine, redéfinissant ainsi la force de travail et son évolution. Cette catégorie va bien au-delà des voitures autonomes ou des livraisons par drone. Elle comprend, par exemple, les systèmes de conservation de contenu et de transaction financière automatiques, y compris la création de bulletins d’informations automatisés en matière de sport ou de finance. L’autonomie inclut également la capacité à diagnostiquer et à mettre à jour le système interne, en identifiant et en corrigeant les failles de sécurité par exemple, ce qui est essentiel dans un monde caractérisé par l’évolution rapide des menaces de cybersécurité.

Cette tendance se traduit concrètement par l’automatisation partielle ou complète de catégories de tâches, tout en ouvrant la voie à de nouvelles opportunités pour des opérations plus créatives. Il est alors capital pour les entreprises de réallouer leurs ressources et de reformer leurs collaborateurs.

À la lumière de l’évolution des tendances de l’IA dans les années à venir, il est important de se souvenir que « l’IA est en train de dévorer le monde et n’est pas près d’avoir terminé », comme l’a déclaré Sanjit Dang d’Intel Capital, lors de la conférence internationale sur l’IA. La science des données joue notamment un rôle essentiel dans l’exploitation du potentiel des données d’entreprise pour en dégager leur valeur optimale, améliorer le chiffre d’affaires et augmenter la rentabilité.

 

_____________
Robert Hryniewicz est Data Scientist, Hortonworks