Traditionnellement, la conférence AWS « Re:Invent » est l’une des plus riches et des plus animées en annonce de l’univers informatique. Devenue virtuelle en 2020, elle reste tout aussi foisonnante. Une chose est sûre, la crise n’impacte pas les capacités d’innovations d’Amazon.
Le cloud dans toute sa diversité… Tel est finalement le paysage proposé par cette édition 2020 virtuelle et rallongée de la conférence annuelle AWS Re:Invent. L’an dernier, AWS s’était évertuée lors de son édition 2019 a démontré que contrairement à certains analystes qui anticipaient un tassement du cloud public 2020 (c’était avant que la crise sanitaire ne vienne faire exactement l’inverse), ce dernier n’en était qu’à ses débuts et que restait à inventer.
Cette année, AWS a multiplié les annonces aussi bien sur le « compute », les bases de données, l’IA, que le quantique. Son cloud public continue de s’enrichir de toujours plus de services PaaS mais aussi IaaS avec de nouvelles perspectives portées par le Edge notamment.
Côté IaaS
Du côté des infrastructures, on retiendra de AWS Re:Invent :
– Des Macs en Bare Metal… à la demande
Apple n’autorisant toujours pas la virtualisation de son OS, AWS propose désormais des Apple Mac Mini à la demande. Ils sont gérés par l’infrastructure EC2 et permettent aux développeurs (principale cible de l’offre) d’accéder à des Mac Mini pour construire, tester et publier des applications macOS, iOS, iPadOS, tvOS et watchOS. Ces « instances Mac » seront surtout utiles à des développeurs utilisant principalement des PC pour développer des applications cross-plateformes. Car à raison de 25,99$ la journée d’allocation d’instance, l’acquisition d’un vrai mac mini serait rentabilisée en 2 mois ! AWS est le seul hyperscaler à proposer des instances Apple. Signalons que les Mac Mini utilisés par AWS sont en Intel mais l’hyperscaler planche déjà sur l’adaptation de ses technologies aux processeurs Apple M1.
– Des instances à GPU AMD
Bonne nouvelle pour AMD. Alors que NVidia truste les serveurs depuis plusieurs mois, notamment avec ses GPU A100, AWS veut offrir du choix et des alternatives pour relancer la compétition et faire baisser les prix. Les nouvelles instances « G4ad » embarquent des processeurs AMD Epyc 2eme génération (jusqu’à 64 vCPU) associés à des GPU AMD V520 (jusqu’à 4 GPUs par instance). Elles sont disponibles sous Windows Server, Amazon Linux 2, Ubuntu 18 et CentOS 7.7.
– Des instances ARM boostées pour le Web intensif et l’IA
AWS est l’un des rares clouds publics à proposer des instances à base de processeurs ARM. Celles-ci sont construites autour d’un processeur conçu par Amazon pour ses propres besoins : le Graviton 2.
De nouvelles instances aux capacités réseau boostées voient le jour pour tous les besoins d’entreprise nécessitant d’importantes bandes passantes. Les instances « C6gn » offrent 100 Gbps de débit et une bande passante jusqu’à 38 Gbps d’Amazon Elastic Block Store. Ces instances « haut débit » offrent un rapport prix/performance 40% supérieur à des instances x86 équivalentes.
– Du stockage dense à bas coûts
Pour de l’archivage et du capacitif à coûts bas, AWS avait introduit ces instances de stockage HS1 en 2012 puis ses instances D2 en 2015. Depuis, plus grand-chose. AWS lance deux nouvelles instances dénommées D3 et D3en s’appuyant sur du stockage HDD à faible coût. Les « D3 » proposent jusqu’à 48 To de données alors que les « D3en » (conçues pour Lustre, BeeGDS et GPFS) grimpent jusqu’à 336 To.
Côté PaaS et Containers
Le serverless et les containers sont à l’honneur avec plusieurs annonces :
– Lambda facturé à la milliseconde !
Dans le serverless, l’entreprise ne paye que les ressources CPU qu’elle consomme. AWS mesure désormais à la milliseconde et non plus avec une granularité de 100 ms. Une modification qui devrait, en théorie, profiter aux entreprises en réduisant le coût de leurs fonctions Lambda.
– Des containers dans Lambda…
Jusqu’ici, l’infrastructure de Lambda accueillait des codes sources de fonctions qui étaient exécutées lorsque les déclencheurs associaient se produisaient. Désormais, vous pouvez aussi packager et déployer vos fonctions Lambda sous forme de containers. Un moyen d’insérer plus aisément la philosophie Lambda dans des chaînes DevOps basées sur les containers et de garder ainsi une gestion des codes sources des fonctions « Lambda » dans l’environnement DevOps traditionnel. C’est aussi un moyen de construire des « Functions Lambda » plus élaborées. Une seule limitation : la taille des images de ces containers « Lambda » doit être inférieure à 10 Go.
– Un répertoire public pour containers partageables : Amazon ECR Public
L’un des moyens les plus simples et les plus pratiques de gérer des containers dans AWS est de les placer dans Amazon Elastic Container Registry, un entrepôt privé. Désormais, AWS propose également un entrepôt public « Amazon ECR Public » pour accueillir les images de containers communautaires et autres containers à partager ouvertement.
– AWS Proton pour organiser la gestion des containers et du serverless
La gestion du cycle de vie et la maintenance de centaines – voire de milliers – de microservices avec des ressources et des configurations d’infrastructure en constante évolution est une tâche difficile, même pour les équipes les plus compétentes. AWS Proton est une solution de gestion automatisée pour containers et déploiements serverless. Elle permet aux équipes d’infrastructure de définir des modèles de gestion standardisés, de les centraliser et de les mettre à la disposition des développeurs de leur organisation.
Côté IA et ML
Amazon a lancé plusieurs services autour du Machine Learning :
– Amazon Monitron
Monitron est un nouveau service « clé en main » de maintenance prédictive. Ce service vous permet de surveiller l’état des équipements de vos installations et facilite la mise en œuvre d’un programme de maintenance prédictive.
– Amazon Lookout for Equipments
Ce service s’appuie sur des API de Machine Learning pré-programmées pour détecter des comportements anormaux sur des équipements afin d’anticiper les pannes, d’améliorer l’efficacité opérationnelle et la sécurité. L’idée de Lookout for Equipments est de permettre aux entreprises de soumettre l’historique des données de leurs capteurs pour obtenir ensuite l’IA adaptée à la reconnaissance des anomalies correspondant à leurs équipements.
– Amazon Lookout for Vision
Ce service Lookout for Vision permet de très rapidement mettre en œuvre une solution Machine Learning destinée à faire du contrôle qualité en analysant visuellement la présence de défauts de fabrication sur une chaîne industrielle.
– AWS Panorama
Amazon lance de nouvelles appliances pour toutes les applications nécessitant l’utilisation de la reconnaissance d’images à l’Edge. L’idée est de permettre aux entreprises de développer un modèle de vision par ordinateur à l’aide d’Amazon SageMaker, puis de le déployer sur les sites en périphérie à l’aide d’une appliance AWS Panorama qui peut exécuter le modèle sur des flux vidéo de plusieurs caméras réseau et IP.
AWS Re:Invent ne fait que débuter. La conférence va se poursuivre jusqu’au 17 décembre. On devrait en apprendre plus dans les jours qui viennent sur d’autres services ainsi que sur les travaux d’AWS autour de son nouveau processeur accélérateur de machine learning (AWS Trainium) et autour de son propre ordinateur quantique élaboré par la « Quantum Hardware Team » d’Amazon en collaboration avec Caltech (l’institut de technologie de Californie).