A la conférence annuelle Linley Tech sur les processeurs qui se déroulait mercredi et jeudi derniers, au Hyatt Regency de  Santa Clara, le vice président de Microsoft, Kushagra Vaid, a déclaré que Microsoft étudiait de prés des contrôleurs FPGA et la virtualisation des réseaux pour tenter de résoudre les problèmes de ses 15 datacenters qui gèrent désormais plus d’un million de serveurs.

Kushagra Vaid (Photo) qui est vice-président de l’ingénierie de serveurs chez Microsoft, dans la division Cloud and Enterprise, est un ancien chercheur de chez Intel et un habitué de cette manifestation qui révèle, chaque année, les grandes tendances autour des microprocesseurs. Selon Vaid, Microsoft étudie la possibilité de mettre un FPGA dans chacun de ses serveurs dans ses 15 centres de données pour résoudre les problèmes de débits applicatifs. GFS_Kushagra_Vaid_Video_Thumbnail_590x590Les FPGA (Field Programmable Gate Arrays ou « réseaux logiques programmables ») sont des composants très intégrés, des VLSI que l’on installe à proximité des processeurs ou sur des cartes « filles » afin d’accélérer les processus mais cela complexifie, en général, l’ensemble. Cette adoption future devrait, a priori,  faire plaisir à Oracle qui a toujours mis en avant ces fonctions dans ses serveurs spécialisés de base de données. Oracle a même inclus dans ses tout derniers processeurs Sparc des extensions programmables. Pour Microsoft qui a toujours mis en avant, du moins à l’époque de Bill Gates, l’avantage du « bare metal », celui qui consiste à faire fonctionner tout dans le cœur du processeur, sans intermédiaire, ce serait une petite révolution intellectuelle. Tout comme annoncer que Microsoft connaît des problèmes de réseaux, mais depuis le départ de l’ex-PDG,  Steve Ballmer, le géant parait nu… 

Pour justifier la création d’un vrai contrôleur SDN ?

Mais cette annonce un peu inhabituelle paraît pour certains observateurs une manière détournée d’annoncer qu’elle aurait besoin d’un vrai contrôleur hardware pour gérer la virtualisation de ses réseaux. La situation pourrait se résumer ainsi : « il faut que l’on fabrique aussi un contrôleur hardware (SDN ?) pour nous en sortir ». Au vu de la part grandissante du story telling dans la communication de Microsoft, c’est peut-être de ce côté qu’il faut regarder pour comprendre cette intervention d’un proche de Satya Nadella, le PDG actuel de Microsoft. Le discours : « On rencontre des problèmes, on essaie de les résoudre » n’est peut-être qu’une première étape. La prochaine communication devrait être : « ça y est, on a une solution et si vous voulez, vous pouvez profiter de notre expérience ». Ce qui rend l’histoire sympathique et tout à fait crédible pour les observateurs. Elle donne au moins un fil directeur à suivre, cela permet d’éviter de se poser trop de questions. Sur le fond, on ne peut que le croire car entre cent serveurs et mille serveurs, les problèmes ne sont plus les mêmes et Microsoft gère désormais plus d’un million de serveurs, et selon Kushagra Vaid, la firme voit poindre dans son réseau un goulot d’étranglement à venir dans le courant des trois prochaines années. «Nous sommes maintenant dans une position où aucun des fournisseurs de silicium ne peut plus suivre le rythme du changement de nos 200 charges de travail dans Azure, surtout dans nos plus grands des centres de données. Les réseaux ont besoin de « nouvelles fonctions » pour une nouvelle programmation, le contrôle de flux et des commutateurs virtuels. Cela change si vite que les composants réseaux ne sont plus en phase ce qui nous pousse à étudier l’utilisation de FPGA. Et d’API ouvertes pour les accélérateurs de FPGA et d’autres concepts du même genre. »

Le trafic en augmentant sans cesse génère de nouveaux soucis

Au cours des quatre dernières années, les serveurs dans les 15 centres de données de Microsoft (photo )ont vu leur nombre augmenter dans un rapport de 1 à 10 et les derniers modèles intègrent désormais des interfaces 40 Gbits/s. Tous les nouveaux serveurs en rack que la société achète utilisent maintenant quatre puces de 10Gbits/s pour envoyer des données à des débits 40G vers un commutateur haut de rack, un débit que l’on croyait justement réservé aux seuls les commutateurs dit haut de rack pour converser avec les réseaux. Par ailleurs pour sécuriser et chiffrer le trafic, Microsoft a réalisé qu’il ne lui fallait pas moins de 16 de 24 cœurs dans un serveur à base de processeur Intel Ivy Bridge. « Ce n’est pas très économique. Il nous faut un nouveau niveau type de matériel » a précisé Kushagra Vaid.

Microsoft-datacenter

Pour les fonctions d’équilibrage de charge, encore géré par du matériel reposant sur des composants discrets, la firme veut aussi remplacer son matériel existant par un logiciel distribué tout comme pour la sécurité avec l’inspection approfondie des paquets. « C’est le genre de chose que les administrateurs demandent aux fonctions de virtualisation pour le réseau». L’affaire flaire bon le SDN. Kushagra Vaid aura eu, au moins, l’avantage de mettre en avant les besoins des gestionnaires de data center avant de pouvoir parler de solutions. L’on peut parier que la solution tiendra en une solution SDN « toute chaude » que Microsoft bientôt nous sortira de ses ateliers. Entre Cisco qui se présente comme le nouveau roi du logiciel en rabattant tous les intégrateurs vers ses offres et VMware qui virtualise tout du sol au plafond, Microsoft a intérêt à sortir rapidement son « quatre-quarts » pas breton mais logiciel à base de, compute, storage, network et services. Le tout sera de savoir s’il s’agira bien d’une « glu » légère, ou d’une couche de « béton armé » à base de processeurs et de FPGA. La deuxième solution paraît tenir la corde.