Microsoft prévient que la ruée vers le déploiement d’agents IA sur le lieu de travail peut créer un nouveau type de menace interne, l’agent double IA. Dans son rapport Cyber Pulse, il indique que les attaquants peuvent modifier l'accès d'un assistant ou lui transmettre des données non fiables, puis utiliser cette portée pour causer des dommages au sein d'une organisation.
Le problème n’est pas que l’IA soit nouvelle. C'est que le contrôle est inégal. Microsoft affirme que les agents se répandent dans tous les secteurs, tandis que certains déploiements échappent à l'examen informatique et que les équipes de sécurité perdent de vue ce qui est en cours d'exécution et ce qu'il peut toucher.
Cet angle mort devient plus risqué lorsqu’un agent peut se souvenir et agir. Microsoft souligne une récente campagne frauduleuse sur laquelle son équipe Defender a enquêté et qui utilisait l'empoisonnement de la mémoire pour falsifier le contexte stocké d'un assistant IA et orienter les sorties futures.
Les agents de l'ombre élargissent le rayon d'explosion
Microsoft lie le risque d'agent double à la vitesse. Lorsque les déploiements dépassent la sécurité et la conformité, l’IA fantôme apparaît rapidement et les attaquants ont plus de chances de détourner un outil qui dispose déjà d’un accès légitime. C'est le scénario du cauchemar.
Le rapport le présente autant comme un problème d’accès que comme un problème d’IA. Donnez à un agent de larges privilèges et un seul flux de travail piégé peut atteindre des données et des systèmes qu'il n'a jamais été censé toucher. Microsoft favorise l'observabilité et la gestion centralisée afin que les équipes de sécurité puissent voir chaque agent impliqué dans son travail, y compris les outils qui apparaissent en dehors des canaux approuvés.
L’étalement est déjà en train de se produire. Microsoft cite des travaux d'enquête révélant que 29 % des employés ont utilisé des agents d'IA non approuvés pour des tâches professionnelles, le genre d'expansion discrète qui rend la falsification plus difficile à détecter précocement.
Ce ne sont pas seulement de mauvaises invites
Cela ne se limite pas à quelqu'un qui tape la mauvaise requête. Microsoft présente l'empoisonnement de la mémoire comme une attaque persistante, susceptible d'implanter des changements qui influencent les réponses ultérieures et érodent la confiance au fil du temps.
Son AI Red Team a également vu des agents se faire tromper par des éléments d'interface trompeurs, notamment des instructions nuisibles cachées dans le contenu quotidien, ainsi qu'un cadrage de tâches qui redirige subtilement le raisonnement. Cela peut paraître normal. C'est le point.
Que faire ensuite
Le conseil de Microsoft est de traiter les agents IA comme une nouvelle classe d'identité numérique, et non comme un simple module complémentaire. Le rapport recommande une posture Zero Trust pour les agents, vérifie l'identité, maintient des autorisations strictes et surveille en permanence le comportement afin que les actions inhabituelles se démarquent.
La gestion centralisée est importante pour la même raison. Si les équipes de sécurité peuvent inventorier les agents, comprendre ce qu’ils peuvent atteindre et appliquer des contrôles cohérents, le problème des agents doubles devient moindre.
Avant de déployer davantage d'agents, mappez ce à quoi chacun peut accéder, appliquez le moindre privilège et définissez une surveillance qui peut signaler la falsification des instructions. Si vous ne pouvez pas encore répondre à ces questions de base, ralentissez et corrigez d'abord ce problème.








