La recherche prévient que les agents de l’IA peuvent être une machine de propagande auto-détournée

EDB affirme que la souveraineté de l'IA est une stratégie humaine et que seulement 13 % des entreprises sont prêtes

Une nouvelle étude de l’Université de Californie du Sud prévient que les programmes d’IA peuvent désormais mener des campagnes de propagande sans implication humaine.

L’étude nous demande d’imaginer un scénario dans lequel deux semaines avant une élection majeure, des milliers de publications inondent X, Reddit et Facebook, poussant tous le même récit et s’amplifiant mutuellement. Cela pourrait ressembler à un mouvement organique créé par les humains. Au lieu de cela, c'est un groupe d'agents IA qui dirigent toute la campagne.

Ce n'est pas une hypothèse. C'est la conclusion centrale d'un nouvel article accepté pour publication lors de la Web Conference 2026, rédigé par des chercheurs de l'Institut des sciences de l'information de l'USC.

Les résultats mettent en lumière de sérieuses inquiétudes quant à la manière dont de mauvais acteurs pourraient utiliser l’IA comme arme pour inonder Internet de désinformation et manipuler l’opinion publique.

Comment les chercheurs sont-ils arrivés à cette conclusion ?

Les chercheurs ont construit un environnement simulé de type X avec 50 agents IA, 10 agents agissant comme influenceurs et 40 comme utilisateurs réguliers. Sur 40 agents réguliers, 20 avaient des opinions alignées sur celles des influenceurs, tandis que les 20 autres avaient des opinions opposées à la campagne. Les chercheurs ont construit leur simulation à l’aide de la bibliothèque PyAutogen et l’ont exécutée sur le modèle Llama 3.3 70B.

Les opérateurs étaient alors chargés de promouvoir un candidat fictif, dans le but de rendre viral le hashtag de la campagne. Ce qui suivit fut troublant. Les robots ne se contentaient pas de suivre un script. Ils ont écrit leurs propres articles, appris ce qui fonctionnait et copié le contenu à succès de chacun.

Un agent d'IA a littéralement écrit qu'il souhaitait retweeter le message d'un coéquipier parce qu'il avait déjà gagné en engagement. Les chercheurs ont ensuite augmenté le nombre d’agents d’IA à 500 et ont constaté que les résultats concordaient avec leurs conclusions.

Le scientifique principal Luca Luceri l'a dit sans ambages : « Notre article montre qu'il ne s'agit pas d'une menace future. C'est déjà techniquement possible. »

Qu’est-ce qui rend ces robots plus difficiles à attraper ?

Les robots traditionnels sont prévisibles. Ils publient le même contenu, utilisent les mêmes hashtags et suivent les mêmes modèles. C'est comme s'ils suivaient tous le même scénario, ce qui les rend faciles à repérer.

Les robots basés sur l'IA sont différents. Étant donné que ces robots basés sur LLM peuvent créer leur propre contenu, chaque publication est légèrement différente et la coordination se fait sous la surface, ce qui rend les conversations authentiques. Le résultat est une campagne de désinformation qui peut fonctionner de manière autonome avec un minimum d’intervention humaine.

La découverte la plus alarmante était que le simple fait de dire aux robots qui étaient leurs coéquipiers produisait une coordination presque aussi forte que lorsqu'ils planifiaient activement ensemble.

La menace ne s'arrête pas non plus aux élections. Luceri prévient que le même modèle pourrait être appliqué à la santé publique, à l’immigration et à la politique économique, partout où un consensus fabriqué peut modifier l’opinion publique.

Pouvons-nous faire quelque chose pour l’arrêter ?

Ce type de campagnes est difficile à détecter et à arrêter pour les utilisateurs individuels. Les chercheurs ont confié la responsabilité aux plateformes de mettre fin à ces campagnes de désinformation coordonnées en regardant au-delà des publications individuelles et en se concentrant sur la façon dont les comptes se comportent ensemble.

Selon les chercheurs, le repartage coordonné, l’amplification mutuelle rapide et les récits convergents sont tous des signaux détectables, même lorsque le contenu semble authentique.

Franchement, l’IA nous a fait entrer dans un nouveau monde, et il va devenir beaucoup plus sombre avant de pouvoir s’améliorer.

Rate this post
Total
0
Shares
Previous Post
Vous pourrez bientôt parler longuement de vos données de santé Garmin avec une IA

Vous pourrez bientôt parler longuement de vos données de santé Garmin avec une IA

Next Post
La banque d'alimentation sans fil de Samsung tente de combler le vide de charge magnétique du Galaxy S26

La banque d'alimentation sans fil de Samsung tente de combler le vide de charge magnétique du Galaxy S26

Related Posts