Ce nouvel outil a été annoncé hier par la firme américaine via un communiqué sur son site et repris sur son compte X et plus généralement partout sur la planète web !
Après les photos générées par l’intelligence artificielle, OpenAI se lance dans donc la vidéo.
Sora, qu’est-ce que c’est ?
Sora est le nouveau modèle d’OpenAI qui permet dorénavant de générer des vidéos totalement artificielles grâce à un simple prompt. Ces dernières vidéos seront d’une durée maximale de 60 secondes, et pourront contenir : personnages qui peuvent ressentir des émotions, des scènes très très détaillées et tout cela d’une certaine façon filmée sous différents angles totalement différentes.
« Sora peut générer des scènes complexes avec plusieurs personnages, des types de mouvements spécifiques et des détails précis» – Sam Altman
D’après les explications fournies par OpenAI, ce modèle s’appuie sur DALL·E et utilise des techniques avancées pour interpréter fidèlement les instructions textuelles dans les vidéos qu’il génère. De plus, Sora est capable d’animer des images statiques et de compléter des vidéos déjà existantes.
Pour l’instant, l’outil présenté est encore perfectible et présente des défauts comme le fait que Sora confond actuellement la droite et la gauche si les termes sont utilisés dans la rédaction du prompt. Aussi, le modèle peut avoir du mal à simuler avec précision une scène complexe et ne pas comprendre les cas spécifiques de cause et d’effet. Par exemple, une personne peut mordre dans un biscuit, mais après coup, le biscuit peut ne pas porter de marque de morsure.
Actuellement, nous avons seulement à notre disposition des prompts et leurs résultats fournis directement par OpenAI.
Ici le prompt suivant : « La caméra fait face à des bâtiments colorés à Burano, en Italie. Un adorable dalmatien regarde par la fenêtre d’un bâtiment au rez-de-chaussée. De nombreuses personnes se promènent à pied ou à vélo le long des rues du canal devant les bâtiments. »
Ouvert à un groupe de testeurs restreint pour le moment
Actuellement, Sora est en phase expérimental auprès d’un groupe sélectionné de testeurs pour évaluer les risques, et étudier les dangers éventuels posés par ce nouveau modèle en terme de désinformation, ou de générations de contenus haineux ou discriminatoires.
OpenAI communique sur ce projet aujourd’hui dans le but d’obtenir des rétroactions externes afin d’améliorer le modèle et de le préparer pour une future intégration dans des produits. Un accent particulier est mis sur la sécurité, avec le développement d’outils pour détecter les contenus trompeurs et l’intégration de métadonnées permettant de retracer l’origine des vidéos.
L’entreprise affirme aussi vouloir éviter que le logiciel ne soit utilisé pour créer des « deepfakes », des fausses vidéos ultraréalistes utilisées pour désinformer. OpenAI assure que le logiciel « détectera et rejettera les commandes textuelles qui violent [leurs] politiques d’utilisation », dont les commandes qui réclament « de la violence extrême, du contenu sexuel, des images haineuses, des ressemblances avec des célébrités, ou de la propriété intellectuelle d’autres personnes ».
Je vous invite à aller regarder toutes les vidéos présentes sur la page dédiée d’OpenAI. Honnêtement … c’est bluffant ! Evidemment comme ces vidéos sont fournies par la maison mère, les défauts perceptibles ont pu être facilement gommés avant publication …