Le Docteur Jain Menon est le responsable de la division recherche. Cet ancien membre de la direction d’IBM animait lors du séminaire européen sur l’innovation, il y a dix jours, une session autour de l’évolution des produits maison.

Sa division, Dell Research, n’existe que depuis deux ans et a pour objectif d’améliorer les produits existants et d’étudier les conditions de lancement des produits nouveaux. « On étudie la création de nouvelles lignes de produits, les nouveaux standards et  l’on gère les droits de propriétés intellectuelles, les nôtres et ceux que l’on doit acquérir pour améliorer nos offres. On doit faire la bonne balance entre les différents objectifs. On a quatre types de recherche, l’une c’est lajai prochaine-génération d’infrastructure pour les datacenters. Un autre est le Big data et l’analyse des données (analytics and data insight). Le troisième sujet est la sécurité et la quatrième est l’internet des objets. On travaille aussi beaucoup sur les interfaces utilisateurs. Parmi les nouvelles tendances, on s’attend par exemple en 2017 au lancement de nouvelles mémoires non volatiles qui se situeront au cœur des serveurs et devraient modifier la notion même du stockage. »

 Les serveurs seront tous hyperconvergés

Cette annonce ressemble beaucoup au projet d’Intel présenté en mars dernier sur un nouveau standard de bus d’interconnexion appelée NVM Express ou pour faire court, NVMe. Ce nom  se réfère évidemment à la norme PCIe établie pour la connexion des composants et leurs périphériques. Les avantages du NVMe seront ceux de la « convergence » qui existe déjà  à une échelle plus large sous la forme logicielle au travers des serveurs Nutanix, revendus d’ailleurs par Dell . En positionnant la mémoire non-volatile, celle que l’on connait déjà dans les SSD, au plus près aux processeurs logiques dont elle dépend, Intel obtient l’effet de serveurs convergés mais au coeur même des bus de ses serveurs et des systèmes de stockage tout en augmentant la bande passante. Cela devrait effacer certains goulets d’étranglement et réduire la latence des applications. Selon le directeur du labo de Dell, on devrait ainsi avoir en moyenne 12 TO de mémoire sur la plupart des nouveaux serveurs qui seront « naturellement convergés ».

De même, si l’on suit la courbe actuelle de l’augmentation de puissance depuis dix ans, en 2020, selon les spécifications de mesure « specint » actuelles, la puissance des PC sera multipliée par 5,29 et les performances des serveurs par 20. De même la mémoire devrait augmenter par 16 et la bande passante disponible sur les réseaux s’améliorera dans un facteur de 15. Ces chiffres pour le matériel, le directeur de Dell ne s’en cachait pas, sont des extrapolations des courbes actuelles et reposent en partie sur les objectifs d’Intel, partenaire de cette journée innovation.

 Le logiciel de plus en plus sur mesure et intégré

« En 2020, la majorité des applications d’analyses temps réel seront intégrées de manières transparentes dans les processus business. En 2020 les spécialisations des logiciels auront eu raison des logiciels généralistes qu’il s’agisse des logiciels à l’intention des Datacenters et des opérateurs ».

En 2016, le Byod passera de la sécurité à une utilisation plus large avec une simplicité accrue.

De son côté la sécurité passera de la réaction aux attaques à la prédiction de la détection. On devrait parler de plus contre mesures. Parmi les projets de sécurité l’un concerne l’authentification continue.

 Une sécurité d’accès continue

 « Au lieu de vous authentifier une fois au début de votre travail, en tapant un mot de passe ou en donnant une empreinte digitale, l’idée est d’être constamment analysé afin que si vous quittez votre poste de manière imprévue, personne ne puisse accéder à vos informations. Selon la manière dont vous glissez votre doigt sur l’écran tactile, la manière dont vous balayez l’écran varie selon chaque personne. La pression que vous exercez est différente de la pression de celle de vos collègues. Nous pourrons aussi intégrer la reconnaissance faciale. Ce serait une authentification à deux facteurs. En tout cas nous voyons le monde passer de l’authentification unique au début de la session pour cette authentification continue.

En 2018, les interfaces utilisateurs vont prendre aussi en considération vos intentions; on pourra le faire avec le eyes tracking (suivis du regard), le détecteur de sentiments le « mood sensing ».

Observer les réactions des clients

Dell research a aussi une approche  sociologique : « Si l’on fait des recherches approfondies sur les technologies émergeantes, on étudie les outils collaboratifs, sur le long terme. On partage certaines informations avec nos clients et l’on prend en compte leurs remarques. C ’est un cycle permanent de mises à jours qui permet de s’adapter à leurs besoins ».

Une division pour l’internet des objets

En outre, la firme a annoncé qu’elle avait crée une nouvelle division dédiée à l’internet des objets. Selon Dell, «  Elle sera concentrée sur les solutions de bout en bout qui couvrent tant le matériel, les logiciels que les services ».  A Copenhague pour sa journée de l’innovation, la firme a montré une nouvelle passerelle destinée à sécuriser et gérer les données collectées sur des capteurs ou des terminaux sans fil ou connectés. La plateforme repose sur un client léger Wyse 3290 sous linux Ubuntu ou Wind River (Linux rt) doté d’un processeur Celeron N2807 d’Intel avec 4 Go de RAM et 16 Go de stockage flash. Elle communique grâce à des liens wifi. La firme précise : « Sa puissance de traitement permettra d’effectuer des analyses, de mieux gérer les consommations d’énergie ou déclencher un appel pour la maintenance proactive d’équipement ». Elle a enfin signé un accord de partenariat avec ThingWorx, spécialisé dans  les plateformes IoT.