OpenAI a fait son grande chute hier — libérer Sora, un générateur d’IA de texte en vidéo qui peut créer des vidéos réalistes. Sora peut générer des scènes à la fois réalistes et imaginatives à partir d’instructions textuelles, à une minute, selon l’entreprise. Si l’on prend les vidéos qu’OpenAI a publiées sur son site « sans modification », comme il est dit que les vidéos sont en effet remarquables et aident peut-être à expliquer le nom du système d’IA, qui signifie « ciel » en japonais. . Comme dans le ciel est vraiment la limite.
Sora n’est pas disponible au public encore. Pour l’instant, OpenAI a déclaré que le générateur d’IA serait uniquement disponible pour les appelés équipes rouges, ou des professionnels de la cybersécurité, qui évalueront les zones critiques en termes de dommages ou de risques. OpenAI accorde également l’accès à certains artistes visuels, designers et les cinéastes pour obtenir des commentaires sur la manière de faire progresser le modèle d’IA afin qu’il soit « le plus utile » aux professionnels de la création.
Avec cela, les possibilités de ce qu’un court créateur de vidéo généré par l’IA pourrait faire sont illimitées.
D’une part, la brièveté des vidéos rendra beaucoup plus facile la création de vidéos TikTok et de vidéos YouTube, a déclaré Jun-YanZhu, professeur à l’Université Carnegie Mellon qui fait des recherches sur l’IA générative.
À terme, l’IA pourrait également perturber les films hollywoodiens. Les cinéastes « veulent un contrôle plus précis de l’animation et de l’émotion », a-t-il dit. Le modèle d’IA de conversion texte-vidéo aide également à mettre en contexte pourquoi Écrivains et acteurs hollywoodiens ont exige des droits et de payer au milieu de la montée de l’IA générative, avant qu’il se trop tard.
Sora pourrait également être utilisé pour la génération 3D lorsqu’il s’agit de simuler la robotique et les voitures autonomes, ce qui nécessite une tonne de données d’entraînement. — qui prend en compte les feux de circulation ou les accidents de voiture — et qui est coûteux à acquérir, ce qui explique en partie pourquoi l’adoption de les voitures autonomes restent hors de portée.
Le jour se rapproche où nous ne pourrons pas différencier une vidéo qui dépeint la vraie vie et une vidéo qui semble capturer réalité. “Il pourrait être difficile pour les yeux humains de différencier manuellement, il pourrait être plausible qu’un algorithme fasse la différence”, a-t-il déclaré. .
La responsabilité des entreprises technologiques dans la nouvelle ère de l’IA
Ce ne serait pas une surprise si Google et Microsoft construisaient également en interne des modèles de conversion texte-vidéo similaires. Des entreprises technologiques plus sophistiquées ont annoncé une série de mises à jour en ce qui concerne l’étiquetage du contenu généré par l’IA. Les chercheurs des entreprises technologiques sont travaille également sur Outils de détection légale d’IA.
Il est également difficile de ne pas imaginer que l’annonce éclatante d’OpenAI pourrait causer des problèmes aux entreprises qui travaillent dans le domaine des générateurs vidéo IA. Concurrents Parmi eux, Runway, qui a levé plus de 234 millions de dollars auprès de sociétés comme Google et Nvidia, et Irreverant Labs, soutenu par Andreessen Horowitz, qui a levé plus de 80 millions de dollars de financement. Interrogé à propos de Sora, le PDG Rahul Sood a déclaré dans un e-mail : « Sora a l’air génial, C’est le premier véritable concurrent de ce que nous construisons. C’est génial de voir que ce sur quoi nous travaillons est possible. n’a pas encore lancé son outil au public, mais dit qu’il « s’en rapproche ».
Alors, qu’est-ce qui rend les fausses vidéos d’OpenAI si bonnes ?
Le générateur vidéo IA est soutenu par les modèles en grand langage d’OpenAI, qui sont des modèles massifs formés sur des tonnes de données provenant d’Internet, pour générer un nouveau contenu. One grand débat La question qui se pose actuellement dans le secteur de l’IA est de savoir si les entreprises d’IA devraient créditer et payer les personnes qui produisent les films, les vidéos, les photos et les des animations, qui sont utilisées pour entraîner les modèles d’IA.
L’autre problème est qu’OpenAI et ses collègues refusent d’être plus transparents sur ce qui entre dans ces modèles, prétextant des « raisons concurrentielles ».
Est-ce que cela alimentera les contrefaçons profondes ?
Oui, tout simplement, a déclaré Zhu. Il y a une réelle inquiétude quant à la façon dont, lorsque tout le monde peut mettre la main sur le dernier outil OpenAI, il Il sera plus facile de créer des deepfakes et du contenu offensant. Déjà, il y a eu plusieurs deepfakes négatifs très médiatisés qui ont touché les médias grand public. y compris photos explicites de Taylor Swift sur X et un faux Le président Joe Biden annonce aux électeurs potentiels des primaires dans le New Hampshire pour rester à la maison et « enregistrer votre vote » en sautant les élections primaires de l’État le mois dernier.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.