OpenAI continue de vanter les capacités de son modèle vidéo génératif, Sora, et les derniers clips se rapprochent plus que jamais d’une production hollywoodienne, surpassant tout ce que nous avons vu jusqu’à présent dans le domaine de l’IA.
Sora n’est disponible pour personne en dehors d’OpenAI (à l’exception d’un groupe restreint de testeurs), mais nous avons un aperçu de ce qui est possible grâce à quelques vidéos diffusées sur les réseaux sociaux.
Nous découvrons des clips qui semblent être des productions complètes, comportant plusieurs plans, effets spéciaux et mouvements fluides, le tout dans des vidéos d’une durée maximale d’une minute.
Quelques exemples de vidéos :
Le survol du musée par Tim Brooks est impressionnant par la variété des prises de vue et le flux de mouvement qu’il permet – ressemblant à une vidéo de drone mais à l’intérieur.
Blaine Brown, un créateur sur X a partagé une vidéo combinant l’extraterrestre Sora par Bill Peebles avec Pika Labs Lip Sync et une chanson créée à l’aide de Suno AI pour créer un clip vidéo.
SORA repousse les limites de la vidéo IA :
Sora marque un tournant crucial dans le paysage de la vidéo IA. En combinant la technologie de transformation des chatbots telle que ChatGPT avec des modèles de génération d’images avancés tels que MidJourney, Stable Diffusion et DALL-E, il accomplit des prouesses impossibles pour les autres grands modèles vidéo IA tels que Gen-2 de Runway, Pika 1.0 de Pika Labs et Stable Video Diffusion 1.1 de StabilityAI.
Actuellement, les outils vidéo IA disponibles produisent des clips d’une durée de 1 à 4 secondes, parfois incapables de gérer des mouvements complexes. Cependant, le réalisme atteint par ces outils est presque aussi convaincant que celui de Sora.
Néanmoins, d’autres entreprises d’IA observent attentivement les capacités de Sora et la méthodologie de son développement. StabilityAI a confirmé que Stable Diffusion 3 suivra une architecture similaire, laissant entrevoir l’éventualité d’un modèle vidéo similaire. De son côté, Runway a déjà apporté des améliorations à son modèle Gen-2, notamment en développant des mouvements et des personnages plus cohérents, tandis que Pika a introduit la synchronisation labiale comme une fonctionnalité remarquable pour accroître le réalisme des personnages.
Pour découvrir Sora, cliquez-ici
Source : Article de « technews.fr », publié le 04 mars 2024. Lien vers l’article.