L’ère de la mauvaise musique de robot est à nos portes. Adobe travaille sur un nouvel outil d’IA qui permettra à n’importe qui d’être producteur de musique. —aucun instrument ni aucune expérience en édition n’est requis.
La société dévoilée « Project Music GenAI Control »— un nom très long — cette semaine. L’outil permet aux utilisateurs de créer et d’éditer de la musique en tapant simplement des invites de texte dans un générateur. Modèle d’IA. Ceux-ci peuvent inclure des descriptions comme « rock puissant », « danse joyeuse » ou « jazz triste », a expliqué Adobe.
Project Music GenAI Control créera ensuite une morsure initiale basée sur l’invite de l’utilisateur, qu’il peut également modifier à l’aide de texte. Adobe a déclaré les utilisateurs peuvent, par exemple, modifier l’intensité de la musique générée, prolonger la durée du clip musical ou créer une boucle répétable, entre autres. .
Le public cible de ce nouvel outil comprend les podcasteurs, les diffuseurs et « toute personne qui a besoin d’un son qui corresponde exactement à l’ambiance, au ton et à la bonne ambiance. longueur », a déclaré Nicholas Bryan, chercheur scientifique senior chez Adobe et l’un des créateurs de la technologie.
« L’une des choses les plus intéressantes à propos de ces nouveaux outils est qu’ils ne se limitent pas à générer de l’audio : ils le portent au niveau de Photoshop en donnant aux créatifs le même type de contrôle approfondi pour façonner, modifier et éditer leur audio », a déclaré Bryan dans un communiqué. Blogue Adobe. «C’est une sorte de contrôle au niveau de pixel pour la musique.”
Adobe a mis en ligne une vidéo qui montrait comment Project Music GenAI Control fonctionnait, et c’était effrayant à quel point il était facile pour l’outil de créer musique. Cela a également semblé fonctionner très vite. Même si la musique qu’elle a générée ne va pas gagner de Grammys, c’est quelque chose que je Je peux certainement imaginer l’entendre en arrière-plan de vidéos YouTube, de TikTok ou de flux Twitch.
Ce n’est pas vraiment une bonne chose. L’IA s’est répercutée sur des professions telles que l’écriture et le théâtre, obligeant les travailleurs à prendre position et à empêcher leur moyens de subsistance d’être volés. Les commentaires sur la vidéo YouTube de l’entreprise faisaient écho à ces inquiétudes et accusaient l’entreprise d’avoir créé « de la musique écrite par des robots, pour robots” et « bonnes montagnes d’entreprise.”
« Merci Adobe d’avoir essayé de trouver encore plus de moyens pour les entreprises de priver les créatifs de leurs emplois. De plus, quels artistes avez-vous volés ? le matériel que vous avez utilisé pour entraîner votre IA ?",a écrit un utilisateur.
Lorsque Gizmodo lui a demandé des commentaires, Adobe n’a pas divulgué de détails sur la musique utilisée pour entraîner son modèle d’IA pour Project Music GenAI Control. . Cependant, il a souligné qu’avec Firefly, sa famille de générateurs d’images IA, il avait seulement formé ses modèles sur des licences ouvertes. et du domaine public où le droit d’auteur a expiré.
« Le contrôle Project Music GenAI est un aperçu très précoce de la technologie développée par Adobe Research et, même si nous ne divulguons pas les détails de Le modèle n’est pas encore disponible, mais ce que nous pouvons partager, c’est : Adobe a toujours adopté une approche proactive pour garantir que nous innovons de manière responsable », Anais Gragueb, un porte-parole d’Adobe, a déclaré à Gizmodo dans un e-mail.
La musique est un art et est intrinsèquement humaine. En tant que tel, nous devons être prudents lorsqu’il s’agit de nouveaux outils comme celui d’Adobe, sinon nous risquons un un futur où la musique semble aussi vide que les machines qui la génèrent.
Mise à jour 01/03/2024, 17 h 56 HE : Cet article a été mis à jour avec des commentaires supplémentaires d’Adobe.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.