En 2015, nous avons beaucoup entendu parler de DevOps, de Big Data, de mise en conteneurs et de l’Internet des objets, mais que signifient toutes ces grandes tendances pour le data center moderne ? Quels genres d’impacts ces forces perturbatrices massives exerceront-elles sur l’année 2016? Il est surtout essentiel de savoir comment s’y préparer, en sachant que les équipes comme les budgets sont limités. Dans ce contexte, quelles sont les initiatives que peuvent mettre en œuvre les DSI pour mettre en œuvre cette transformation numérique.
L’architecture hyperscale est maintenant une réalité
Les data centers hyperscale, à savoir l’assemblage massif d’infrastructures informatiques capables de supporter un Internet mondialisé et des entreprises maintenant connectées 24h/24, révolutionnent la chaîne de valeurs traditionnelle des data centers. Ils créent des écosystèmes informatiques nouveaux et simplifiés. Ces changements viennent à peine de s’amorcer. Nous ne sommes qu’au début d’une évolution plus longue et plus complexe de l’infrastructure convergée et hyperconvergée vers ces datacenter hyperscale.
La virtualisation, le stockage et le réseau software-defined, les conteneurs et les infrastructures microservices ont, sans nul doute, déjà considérablement modifié la structure du data center moderne : les machines virtuelles constituent à présent la norme, et non plus l’exception. Les pools de stockage sont élastiques et les hyperviseurs sont devenus plus flexibles et plus puissants. Mais cela ne suffit pas.
Selon IDC, les data centers hyperscale deviendront les principaux utilisateurs de nouvelles technologies en matière de calcul et de stockage. Son rapport révèle qu’en 2017, pas moins de 70 % de ces nouvelles technologies de stockage et 50 % des nouvelles technologies de calcul résideront dans des data centers hyperscale. Et en 2018, on comptera 10 fois plus de cœurs de CPU que d’êtres humains ! Mais il y a plus : selon les prévisions d’IDC, le nombre de cœurs de data centers devrait atteindre 77 milliards et leur croissance annuelle devrait également doubler ! Nous devons laisser derrière nous l’ancienne génération d’infrastructure et améliorer le positionnement de nos entreprises dans l’optique de cette croissance à venir des ressources informatiques.
Orchestration et automatisation : le secret le mieux gardé de l’entreprise
L’orchestration constituera l’un des principaux défis, dès lors que les data centers compteront plusieurs milliers de serveurs. C’est elle qui permettra une cohésion de l’ensemble et une fluidité de fonctionnement. C’est l’orchestration automatisée qui fait la différence lorsqu’il s’agit d’augmenter ou réduire le nombre de serveurs nécessaires pour répondre à la demande. Nous commençons à peine à cerner la capacité de ces types d’outils à fournir une gamme complète de services. Et il faut s’attendre à un développement de leurs fonctionnalités et de leur flexibilité au cours des années à venir. Trop de sociétés continuent de dimensionner leur capacité pour les pics d’utilisation, et dépensent 90% de leur temps et de leur argent sans utiliser les ressources.
L’équilibrage des différents éléments du data center constituera le prochain défi majeur. S’il s’avère formidable de pouvoir virtualiser nos CPU en même temps que nos réseaux et pools de stockage, nous devons les gérer ensemble et nous assurer de pouvoir en augmenter ou en réduire la taille. Nous devons également faire des compromis entre les trois éléments afin de répondre aux changements des charges de travail informatiques. La raison est que l’efficacité optimale de chaque élément dépend des autres. Les systèmes nouvelle génération devront continuer à s’adapter de façon permanente à d’autres cas d’usage ainsi qu’à des charges de travail variables, et ce au moyen d’outils de dimensionnement et d’orchestration intelligents.
Cloud privé : tout est possible
Même si les déploiements de clouds publics attirent beaucoup l’attention, la véritable action se déroulera au niveau des clouds privés. Les entreprises qui souhaitent se tailler la part du lion au cours des prochaines années, axeront leur développement autour des clouds privés. En effet, c’est là qu’elles construiront leurs applications de nouvelle génération. Les clouds privés fourniront aux entreprises leur prochain pool de ressources informatiques. Michelle Bailey, du groupe 451 Research, affirme que « 68 % des clients hébergés disposaient d’applications ou de données qu’ils avaient retirées du cloud public pour les placer sur un cloud privé sur site ou un cloud privé hébergé. »
Infrastructure sous forme de service (IaaS) : l’avenir de la réussite des applications
Nous vivons actuellement l’âge d’or de la technologie, rythmé par des innovations annoncées de facon quasiment quotidienne. Puces opto-électriques, mémoire flash NAND, infrastructure software-defined et applications cloud : autant d’innovations qui bousculent les modèles commerciaux traditionnels et révolutionnent des secteurs entiers, du commerce de détail à l’industrie du taxi, en passant par le secteur du tourisme, sans oublier nos interactions sociales. Ces applications nouvelle génération disposent d’une intelligence intégrée et sont conçues pour évoluer rapidement. Les nouvelles versions sont quotidiennes ou hebdomadaires. Elles adaptent leur taille à la demande et l’analyse de leurs données aident les entreprises à prendre des décisions rapides.
Dans l’entreprise, les développeurs attendaient parfois une semaine à un mois pour que les serveurs, le réseau et le stockage soient disponibles et installés avec les systèmes d’exploitation, les logiciels et les outils qui leur étaient nécessaires, et cela pour seulement quelques jours de travail de développement. Une telle situation n’est plus acceptable aujourd’hui : tout d’abord, les entreprises attendent un accès instantané aux données et aux applications. Ensuite, les consommateurs sont extrêmement exigeants sur leur expérience multimédia et la capacité de celle-ci à protéger leurs informations personnelles et à être accessible de n’importe quel périphérique.
Pour répondre à ces attentes, les entreprises actuelles se doivent impérativement d’assurer une gestion sans faille de leur infrastructure software-defined. L’utilisation de solutions d’infrastructure hyperconvergée permet aux entreprises de déployer rapidement et en toute transparence, les ressources serveur, réseau et stockage nécessaires aux applications, en s’adaptant à la demande tant à la hausse qu’à la baisse, et ce de façon économique.
Si elles veulent aller de l’avant, les entreprises se doivent d’envisager dans leur stratégie IT globale une approche sur les infrastructures convergées et les infrastructures software-defined hyperconvergées : seules ces solutions permettent d’adresser de manière simple à la fois les applications traditionnelles (qui requièrent que l’infrastructure soit fiable et offre une garantie de performances), et les aplications développées pour le cloud (intrinsèquement résilientes et fonctionnant sur une infrastructure software-defined). Dans la mesure où la complexité des choix technologiques, les menaces de sécurité et les besoins métier augmentent et évoluent, il sera de plus en plus crucial de disposer d’une infrastructure simplifiée, à même de fournir des applications et des outils susceptibles d’améliorer la compétitivité et l’expérience utilisateur.
________
Philippe Charpentier est vArchitect et Manager EMEA Central de VCE