Avec cette candeur feinte qu’affectionne le marketing américain, Adobe a dévoilé à Adobe Max, le premier modèle générateur de vidéos « sûr pour les entreprises » et imaginé pour « aider les créatifs »… mais qui vient surtout concurrencer Sora d’OpenAI, Google Veo et Meta Movie Gen dans un domaine qui promet de révolutionner la chaîne de création de contenus multimédias dans les entreprises.

En matière d’IA générative, trois tendances auront rythmé toute cette année 2024 : les petits modèles personnalisables, les agents IA et… les modèles IA de génération de vidéo.

On savait depuis plusieurs mois qu’Adobe travaillait sur un tel modèle pour enrichir son très universel outil de montage vidéo, Adobe Premiere. À l’occasion d’Adobe Max, l’éditeur a dévoilé la première version de son modèle Firefly Vidéo.

L’IA Firefly d’Adobe disposait déjà d’un modèle générateur d’images (concurrent de Dall-E d’OpenAI ou Imagen de Google). Elle s’enrichit désormais également d’un modèle de génération de vidéo qui s’appuie en partie sur le modèle de génération d’images existant. Il permet de convertir une instruction textuelle en séquence vidéo.

Vidéo créée avec le prompt : Mignon bébé poulpe aux yeux adorables tenant une tasse de thé dans chaque tentacule et regardant autour de lui joyeusement, rendu 3D, octane, éclairage doux, bokeh rêveur, faible profondeur de champ, cinématographique 2.

Adobe explique que son modèle vidéo s’adresse en premier lieu aux créateurs de vidéos, aux monteurs de vidéos et autres professionnels des médias. Le modèle peut créer des séquences uniques ou des séquences qui se fondent de manière transparente avec du contenu vidéo créé de manière traditionnelle.

Pour l’instant, l’IA Firefly affiche d’importantes limitations. Les séquences sont limitées à du HD (720p) ou du Full HD (1080p) en 24 images par seconde avec une durée totale de vidéo générée de 2 à 5 secondes seulement !

Via une fonctionnalité dénommée « Generative Extend » dans Premiere, on peut ainsi utiliser l’IA pour créer une séquence de transition entre deux séquences vidéos, pour rajouter des images à une séquence existante coupée ou trop courte, ou corriger une vidéo souffrant d’un mouvement de caméra inadapté.

Mais deux autres outils vont aussi faire leur apparition sur le Web exploitant ce modèle :

* Text-To-Video produit une séquence vidéo à partir d’un prompt textuel : on peut préciser un mouvement de caméra, un style graphique (animation 3D, Stop Motion, photoréaliste…), des détails de prise de vues, en plus de la description de la scène.

* Image-To-Video s’appuie sur le premier outil mais va un peu plus loin en permettant de passer au modèle une image fixe dont il s’inspirera pour générer la séquence vidéo.

Vidéo créée avec le prompt : Gros plan cinématographique et portrait détaillé d’un homme âgé au milieu d’une rue la nuit. L’éclairage est sombre et dramatique. Le rendu des couleurs présente des ombres bleues et des reflets orangés. L’homme a une texture de peau extrêmement réaliste et détaillée avec des pores visibles. Le mouvement est subtil et doux. La caméra ne bouge pas. Grain de film. Objectif anamorphique vintage.

Rassurer les entreprises et les vidéastes ?

L’éditeur assure que son modèle Firefly Video n’a été entraîné qu’avec du contenu open source ou du contenu dont il a acquis les droits, ce qui – selon lui – suffit à éviter les problèmes éthiques et de copyright dont souffriraient les autres modèles de génération de vidéos. De quoi permettre à Adobe d’autoqualifier son modèle Firefly Video de « premier modèle IA vidéo publiquement disponible conçu pour une utilisation commerciale sûre ». Un modèle qui, selon l’éditeur, ne met pas directement en danger les emplois et constitue un fabuleux outil pour les professionnels de la vidéo à même de simplifier leur quotidien.

Difficile en réalité d’y croire sur le long terme tant les services marketings internes des entreprises y verront bien évidemment des opportunités de rapidement et automatiquement produire des contenus publicitaires à très bas coûts.

Un modèle encore en bêta fermée

En outre, Firefly Video n’est pas plus « publiquement » disponible que ses concurrents Veo, Sora et Movie Gen. Adobe n’a annoncé aucune date de disponibilité officielle et limite pour l’instant l’accès à la bêta à des partenaires inscrits sur une liste d’attente. Exactement comme les concurrents. Adobe a d’ailleurs également confirmé qu’il sera possible d’appeler directement depuis Première d’autres modèles que Firefly, ce qui devrait offrir ainsi plus de variété de styles.

Au-delà des vœux pieux des fabricants d’IA, l’intégration de telles fonctionnalités au cœur même d’un logiciel comme Adobe Premiere n’en demeure pas moins un atout fantastique pour gagner du temps, libérer les idées créatives et se montrer éventuellement plus productif. Mais générer une telle séquence par une IA est un tournage en moins (et une équipe de tournage en moins) ou du boulot en moins pour les infographistes vidéos.

Dit autrement, l’IA – dès l’an prochain – va venir métamorphoser les métiers de la production vidéo comme elle a déjà profondément transformé le métier de développeur et celui d’illustrateur multimédia/photographe.

 

À lire également :

Meta dévoile Movie Gen, son modèle IA vidéo concurrent de SORA d’OpenAI

Google annonce VEO, un modèle concurrent du SORA d’OpenAI

OpenAI éblouit la sphère Internet avec sa nouvelle IA vidéo : Sora

Adobe réinvente la création vidéo par l’IA dans Premiere Pro

Canva va racheter la startup Leonardo.AI

Adobe Summit 2024 : de l’IA à tous les étages