Cette technique invisible empoisonne les chansons pour que l'IA ne puisse pas les cloner

Cette technique invisible empoisonne les chansons pour que l'IA ne puisse pas les cloner

L’année dernière, des clones IA de Bad Bunny et Drake ont inondé les plateformes de streaming. Les auditeurs ne pouvaient pas distinguer les vrais morceaux des sons synthétiques. Depuis, l’industrie de la musique cherche des réponses.

Des chercheurs de l'université de Binghamton et de la startup Cauth AI pensent en avoir trouvé un. Il s'appelle My Music My Choice, ou MMMC, et fonctionne différemment de la plupart des outils de protection des droits d'auteur. Au lieu de détecter les contrefaçons après leur apparition, cette méthode permet aux artistes d’empoisonner leurs enregistrements avant leur sortie. Le son parvient très bien aux oreilles humaines. Mais les modèles de clonage vocal n’entendent que des ordures.

Voici comment fonctionne réellement l’empoisonnement

Le système cible la forme d'onde d'une chanson. My Music My Choice ajoute des altérations microscopiques si subtiles que vous ne les remarquerez jamais. Jouez le morceau sur Spotify et cela sonne exactement comme l’enregistrement principal.

Mais introduisez ce fichier dans un logiciel de clonage et tout se casse. Les changements perturbent l'algorithme, faisant en sorte que les voix protégées soient lues comme une performance complètement différente. Lorsque l’outil tente de reproduire la voix, il ne produit que des parasites déformés.

L’objectif est de minimiser l’impact sur les auditeurs humains tout en maximisant les perturbations pour les machines. Les artistes peuvent appliquer cette protection pendant la production et la sortie en sachant que les logiciels de clonage ne fonctionneront pas.

Pourquoi la vague de l'année dernière a rendu cela urgent

Bad Bunny sort un nouveau morceau et en quelques heures, Internet se remplit de versions de qualité studio chantées par n'importe qui. L'IA générative a rendu ce scénario réel en 2025. Les fans ne pouvaient plus dire ce qui était authentique.

Au-delà du chaos des droits d’auteur, les artistes ont vu leur identité être empruntée sans autorisation. Les gens utilisent le clonage de la voix pour s'amuser mais aussi à des fins néfastes, a déclaré Ciftci, en saisissant la voix de quelqu'un et en lui faisant chanter des choses qu'il ne ferait jamais. Le bilan émotionnel et la perte de revenus se sont rapidement accumulés. Les musiciens avaient besoin d'un moyen de l'arrêter avant qu'il ne démarre. MMMC leur donne enfin ça.

Quelle est la prochaine étape pour les artistes et l'outil

L’équipe a testé MMMC sur 150 titres dans plusieurs genres et prévoit de se développer. Ils souhaitent également le comparer avec des méthodes similaires, même s’ils admettent qu’il n’en existe pas encore beaucoup.

Pour les musiciens qui regardent cet espace, le message est clair. La protection vient avant le clone, pas après. Surveillez les tests plus larges à mesure que l’équipe évolue.

Rate this post
Total
0
Shares
Previous Post
Microsoft Copilot vient de faire du changement de navigateur une chose du passé

Microsoft Copilot vient de faire du changement de navigateur une chose du passé

Next Post
Vous pouvez enfin désinstaller Microsoft Copilot sur Windows 11, mais il y a un problème

Microsoft supprime le mode « Real Talk » pour les discussions Copilot AI qui avaient plus de personnalité

Related Posts