Microsoft veut démocratiser l’emploi de la Vision et de la Parole dans les scénarios Edge. L’éditeur lance un kit matériel et logiciel accessible même aux Citizen Developers sans compétences avancées en programmation ou en IA.

Des ascenseurs qui répondent à des commandes vocales, des caméras qui informent les managers de la nécessité de remplir un rayon dans un magasin, des caméras qui surveillent la disponibilité de places de parking ou le contenu d’un plateau repas ou d’un caddie… Ces quelques scénarios d’usage qui combinent l’IA et le Edge computing sont typiquement ceux visés par la nouvelle plateforme Azure Percept présentée par Microsoft à l’occasion de sa conférence MS Ignite qui débute en ligne aujourd’hui.

Cette plateforme est composée d’un ensemble de services Cloud mais aussi et surtout d’une gamme de matériels destinés à simplifier la concrétisation des scénarios mêlant IA, IoT et Edge. Avec Azure Percept, Microsoft veut proposer un système complet intégrant matériel et capacités IA qui « fonctionne simplement » sans nécessité de compétences techniques et de connaissances avancées en matière d’IA.

La plateforme se compose d’un kit de développement intégrant un micro-serveur TPM et une caméra intelligente « Azure Percept Vision » qui semble dériver des fameux systèmes de captation Kinect (nés sur Xbox puis adaptés à des usages pros avec Azure Kinect Sensor). Un environnement de développement « Azure Percept Studio » guide les développeurs (même ceux ayant peu d’expérience) à travers un cycle complet d’IA permettant de développer, entraîner et déployer l’intelligence artificielle nécessaire à la concrétisation des idées au travers d’un Proof Of Concept.

Pour les scénarios nécessitant juste de l’audio ou de mixer audio et vision, la plateforme comporte également un kit « Azure Percept Audio ».

Les kits matériels Azure Percept Vision et Azure Percept Audio intègrent des accélérateurs d’inférence pour concrétiser des scénarios de reconnaissance visuelle et de reconnaissance de la parole en temps réel et en périphérie, autrement dit même lorsque les appareils ne bénéficient pas d’une connexion. Ces appareils n’en demeurent pas moins connectés lorsque c’est possible et communiquent alors naturellement avec les services cloud d’Azure notamment pour les phases d’apprentissage et de tests.

L’idée de cette plateforme est de rendre plus accessible (y compris à des Citizen Devs) tous les scénarios d’Intelligence Artificielle en périphérie nécessitant vision et voix. Les IoT intelligents déployés pour concrétiser ces scénarios peuvent bien sûr être gérés et sécurisés à travers la plateforme Azure IoT Hub, les matériels certifiés « Azure Percept » intégrant les technologies nécessaires. Car si l’éditeur propose un kit Vision et un kit Audio, il compte également voir se développer tout un écosystème d’autres capteurs s’intégrant aux services Azure Percept et espère rapidement pouvoir certifier des partenaires tierces