« Le logiciel est en train de dévorer le monde », annonçait en 2011 Marc Andreessen, l’un des fondateurs du Web. Dans cet article devenu célèbre, Marc expose sa vision de l’influence centrale prochaine du logiciel pour l’économie et au cœur-même de toutes sortes de produits. En 2016, il semble clair qu’il avait vu juste. Le logiciel est à l’origine de la fabrication de solutions de tous types et de toutes tailles, il permet d’envisager de tout nouveaux services et d’optimiser les processus métier des entreprises. Et nous n’en sommes qu’au début d’une croissance assurément massive.

L’infrastructure informatique opère aussi sa mutation logicielle selon l’approche software-defined (définie par le logiciel) : les infrastructures modernes se composent désormais de réseaux SDN (Software Defined Networks) et de data centers SDD (Software Defined Datacenter). De plus, la dynamique de virtualisation et d’orchestration a fait du cloud computing une réalité.

Se pose alors la question de savoir ce qui se passera une fois que le logiciel aura dévoré le monde ?

La donnée est en passe de dévorer le logiciel

Si l’on observe les dirigeants d’entreprise et DSI qui mènent à bien la transformation numérique de leur organisation, mettent en œuvre des applications logicielles de nouvelle génération et conçoivent l’architecture de données de demain, il semble bien que l’industrie n’en soit déjà plus à réfléchir à l’abstraction logicielle.

A présent, la transformation numérique des entreprises, et notamment du département IT, est surtout guidée par le Big Data. Bien sûr, le logiciel demeure un critère important de l’équation pour l’allocation de la capacité de calcul, la logique de traitement, la répartition des ressources, etc… Mais la valeur ajoutée pour les entreprises réside bien dans l’exploitation des données.

Prenons les services les plus plébiscités, les entreprises les plus innovantes et les plus prospères du moment, telles que Netflix, Google, Waze, Tesla, Apple, Fitbit, Facebook…

A bien y regarder, les expériences les plus immersives et les plus disruptives sont définies par la donnée. En voici quelques exemples :

– Le mode de conduite automatique des voitures Tesla est rendu possible par les données collectées sur des kilomètres par toutes les voitures de la flotte équipées de la technologie Autopilot. Cet apprentissage collectif en réseau baptisé « fleet learning » va permettre à la première génération de ces voitures autonomes de se perfectionner en continu, afin d’apporter toujours plus de sécurité et de confort à l’automobiliste. Cet apprentissage automatique par l’acquisition de données redéfinit la logique du système de pilote automatique.

– Chez Netflix, les préférences de visionnage individuelles des utilisateurs guident les recommandations futures de programmes. Les données sont collectées et traitées en continu à chaque interaction client (jusqu’à la fréquence d’images en fonction du débit de connexion). Cette analyse guide les ajustements de réglages et la mobilisation de ressources pour offrir une expérience optimale.

– Les assurances tarifées selon le comportement du conducteur que testent certaines compagnies comme Direct Assurance fonctionnent sur le principe de l’adhésion volontaire (opt-in) à un service d’enregistrement des données de conduite qui permet de varier le prix de l’assurance selon le comportement au volant.

Partout, des applications modernes fondées sur l’exploitation des données contribuent à transformer les entreprises de tous secteurs d’activités et sont à l’origine de produits et services de nouvelle génération.

La puissance de l’Open Source dans la nouvelle architecture de données

Les organisations IT peinent à réduire les coûts induits par la seule maintenance de leurs infrastructures. Plus elles parviendront à compresser les dépenses liées à leurs investissements IT passés, plus elles seront en mesure de réinvestir ces économies dans des projets innovants.

Les nouvelles vagues de changement s’accompagnent souvent d’architectures plus coûteuses. Mais cette fois, il en va différemment. Les technologies Open Source, comme Apache Hadoop, apportent leur lot de capacités innovantes mais avec une dynamique de coût différente. Ce changement que l’on appelle « révolution architecturale » va rétablir le lien entre les données et la logique logicielle tout en optimisant les structures de coût.

Comme l’a expliqué Thomas Davenport, expert en management IT, dans le Wall Street Journal :

« Cette révolution  architecturale (liée à l’exploitation des données) ne sera pas relayée à la télévision mais n’en sera pas moins révolutionnaire. Elle mettra la puissance des outils Open Source et du Big Data entre les mains de grands groupes établis mais sans qu’aucune des capacités préexistantes ne disparaisse. C’est la promesse des avantages économiques et de puissance de traitement de Hadoop et des outils Open Source combinés avec la simplicité d’accès, la gouvernance et la sécurité de gestion des données ainsi que leur stockage. »

La puissance de l’Open Source appliquée à l’architecture de données se traduira par une intensification des capacités et la baisse des coûts globaux. Les entreprises qui entreprendront des rénovations architecturales autour de l’architecture de données vont pouvoir bénéficier des nouvelles capacités du Big Data tout en réalisant des économies au niveau de leur infrastructure existante. Ces économies serviront à financer les projets d’innovation. Cette dynamique coût/bénéfice inédite encourage l’adoption rapide de nouvelles applications modernes de traitement des données.

L’avènement de l’entreprise data-defined

Les leaders du 21ème siècle seront ceux qui considéreront leurs données comme un actif stratégique et qui s’en empareront pour optimiser les expériences client, pour leurs besoins de planification stratégique, les soins aux patients, les avancées médicales, ou encore pour rendre la fabrication industrielle de même que les circuits de distribution jusqu’au point de vente plus intelligents.

Pour repenser leur stratégie liée au traitement des données, les entreprises doivent pouvoir s’appuyer sur des plateformes de données ouvertes et connectées pour les aider à valoriser le mieux possible les données en transit et au repos et à en extraire des informations exploitables grâce à des applications modernes d’analyse de données. 

 

_________
Matthew Morgan est vice-président du département Global Product and Alliance Marketing chez Hortonworks