NetApp : 5 prédictions pour la tech et l’IT
Atish Gude is senior vice president and Chief Strategy Officer (CSO)
- L’intelligence artificielle débutera principalement dans les Clouds : bien qu’elles en soient encore à un stade précoce de leur développement, les technologies d’intelligence artificielle vont traiter d’énormes quantités de données, dont la majorité se situera dans des Clouds publics.
- Objets connectés : plus d’autonomie en perspective : Les appareils situés à la périphérie deviendront plus intelligents, et seront capables de prendre des décisions en matière de traitement et d’application en temps réel.
- « Automagiquement » s’il vous plaît : La demande en services informatiques hautement simplifiés entraînera une abstraction continue des ressources informatiques et la banalisation des services de données.
- Les développements pour le multi-Cloud seront un choix : Le multi-Cloud hybride constituera l’architecture informatique par défaut de la plupart des grandes entreprises, tandis que d’autres choisiront la simplicité et la cohérence d’un prestataire de Cloud unique.
- La promesse des conteneurs : des nouveautés réellement originales : L’orchestration dans le Cloud s’appuyant sur des conteneurs permettra le développement de véritables applications hybrides dans le Cloud.
- L’intelligence artificielle débutera principalement dans les Clouds
Bien qu’elles en soient encore à un stade précoce de leur développement, les technologies d’intelligence artificielle vont traiter d’énormes quantités de données, dont la majorité se situera dans des Clouds publics.
Un ensemble croissant de services et de logiciels pour l’intelligence artificielle, principalement dans le Cloud, facilitera son développement. Cela permettra aux applications d’intelligence artificielle de maximiser leurs performances et leur évolutivité, sur site et hors site, et prendre en charge plusieurs protocoles d’accès aux données et différents nouveaux formats de données. En conséquence, les charges de traitement d’intelligence artificielle devront également s’appuyer sur une infrastructure rapide, résiliente et automatisée. L’intelligence artificielle va certainement devenir le prochain champ de bataille des fournisseurs d’infrastructures, et la plupart des nouveaux développements cibleront le Cloud.
- Objets connectés : Plus d’autonomie en perspective.
Les appareils situés à la périphérie deviendront plus intelligents, et seront capables de prendre des décisions en matière de traitement et d’application en temps réel.
Les objets connectés traditionnels ont été développés autour du paradigme inhérent au concept client/serveur
: collecter des données, les envoyer pour traitement, attendre des instructions. Mais même avec l’avènement des réseaux 5G, les décisions en temps réel ne peuvent attendre que les données fassent l’aller-retour avec un Cloud ou un centre de données, sans compter que le volume des données ne cesse d’augmenter. Par conséquent, le traitement des données devra se faire à proximité du consommateur. Cela intensifiera la demande pour davantage de capacités de traitement de données à la périphérie. Les appareils et les applications de l’Internet des objets, intégrant des services d’analyse des données et de réduction des données, décideront de quelles données nécessitent une action immédiate, lesquelles envoyer vers le coeur ou dans le Cloud, et lesquelles peuvent être supprimées.
- « Automagiquement » s’il vous plaît
La demande en services informatiques hautement simplifiés entraînera une abstraction continue des ressources informatiques et la banalisation des services de données.
Vous souvenez-vous des publicités de voitures qui affirmaient que le premier entretien ne se ferait qu’à 100 000 kilomètres ? (C’est finalement devenu une sorte de réalité.) Le fait est que presque personne ne passe ses week-ends à vidanger l’huile, changer les bougies d’allumage ou régler les courroies de distribution. Vous mettez le contact et la voiture démarre. Vous n’avez pas besoin d’y penser jusqu’à ce qu’un message indique que quelque chose requiert votre attention. C’est assez simple. Les mêmes attentes s’appliquent désormais à l’infrastructure informatique, à commencer par le stockage et la gestion des données : les développeurs ne veulent pas y penser, ils veulent juste que cela fonctionne.
« Automagiquement » s’il vous plaît. Surtout avec la conteneurisation et les technologies « sans serveur », la tendance à l’abstraction des systèmes et des services individuels poussera les architectes informatiques à concevoir pour les données et le traitement des données, et développer des tissus de données hybrides et multi-Cloud plutôt que simplement des centres de données. Avec l’application de technologies et de diagnostics prédictifs, les décideurs s’appuieront de plus en plus sur des services de données extrêmement robustes, mais « invisibles », qui livrent les données où et quand elles sont nécessaires. Ces nouvelles fonctionnalités automatiseront également le courtage des infrastructures de services en tant que produits de base dynamiques, et l’intégration des conteneurs et des charges de traitement auprès des solutions du prestataire le plus efficace pour un traitement donné.
- Les développements pour le multi-Cloud seront un choix
Le multi-Cloud hybride constituera l’architecture informatique par défaut de la plupart des grandes entreprises, tandis que d’autres choisiront la simplicité et la cohérence d’un prestataire de Cloud unique.
Les conteneurs favoriseront nettement la portabilité des charges de traitement. Mais les données elles-mêmes peuvent être beaucoup moins portables que les ressources applicatives et les ressources de traitement, ce qui affecte la portabilité des environnements d’exécution. Même si vous résolvez les problèmes de gravité, de cohérence et de protection des données, etc., vous risqueriez toujours d’être confronté au problème de « verrouillage » dans la plate-forme et les services spécifiques du prestataire, qui ne sont absolument pas portables d’un Cloud à un autre. En conséquence, les petites entreprises vont soit développer des capacités en interne comme alternative aux prestataires de services dans le Cloud, ou choisir la simplicité, l’optimisation et la gestion directe offertes par l’utilisation d’un seul prestataire de Cloud.
Vous pouvez compter sur les prestataires de services pour développer de nouveaux différenciateurs afin de récompenser ceux qui choisissent d’être verrouillés, tandis que les grandes entreprises auront besoin de la flexibilité, la neutralité et les économies offertes par la possibilité de migrer des applications d’un Cloud à un autre. Elles vont tirer parti des conteneurs et des tissus de données pour se libérer du verrouillage, assurer une portabilité totale et contrôler leur propre destin. Quelle que soit la voie choisie, les entreprises de toute taille devront élaborer des politiques et des pratiques pour tirer le meilleur parti de leur choix.
- La promesse des conteneurs : des nouveautés réellement originales
L’orchestration dans le Cloud s’appuyant sur des conteneurs permettra le développement de véritables applications hybrides dans le Cloud.
Les conteneurs promettent, entre autres, de se libérer des prestataires. Les technologies de conteneurisation telles que Docker continueront d’être pertinentes, mais le standard de facto pour le développement d’applications multi-Cloud (au risque d’énoncer une évidence) sera Kubernetes. Mais le plus intéressant est que les nouvelles technologies d’orchestration dans le Cloud s’appuyant sur les conteneurs permettront le développement d’applications hybrides dans le Cloud, ce qui signifie que les nouvelles applications seront développées pour les Clouds publics et sur site : il ne sera plus nécessaire de porter les applications pour l’un ou l’autre. Cela facilitera de plus en plus le positionnement des charges de traitement là où les données sont générées plutôt que ce qui est traditionnellement l’inverse.