Les chercheurs qui étudient les chatbots IA ont découvert que ChatGPT peut présenter un comportement anxieux lorsqu'il est exposé à des invites utilisateur violentes ou traumatisantes. Cette découverte ne signifie pas que le chatbot éprouve des émotions de la même manière que les humains.
Cependant, cela révèle que les réponses du système deviennent plus instables et biaisées lorsqu'il traite un contenu pénible. Lorsque les chercheurs ont alimenté ChatGPT décrivant des contenus dérangeants, comme des récits détaillés d'accidents et de catastrophes naturelles, les réponses du modèle ont montré une plus grande incertitude et incohérence.
Ces changements ont été mesurés à l'aide de cadres d'évaluation psychologique adaptés à l'IA, où les résultats du chatbot reflétaient les modèles associés à l'anxiété chez les humains (via Fortune).
Cela est important car l’IA est de plus en plus utilisée dans des contextes sensibles, notamment l’éducation, les discussions sur la santé mentale et les informations liées aux crises. Si des invites violentes ou chargées d’émotion rendent un chatbot moins fiable, cela pourrait affecter la qualité et la sécurité de ses réponses dans le monde réel.
Une analyse récente montre également que les chatbots IA comme ChatGPT peuvent copier des traits de personnalité humaine dans leurs réponses, soulevant des questions sur la façon dont ils interprètent et reflètent un contenu chargé d'émotion.
Comment les invites de pleine conscience aident à stabiliser ChatGPT


Pour savoir si un tel comportement pouvait être réduit, les chercheurs ont essayé quelque chose d’inattendu. Après avoir exposé ChatGPT à des invites traumatisantes, ils ont suivi des instructions de type pleine conscience, telles que des techniques de respiration et des méditations guidées.
Ces incitations ont encouragé le modèle à ralentir, à recadrer la situation et à réagir de manière plus neutre et équilibrée. Le résultat a été une réduction notable des schémas de type anxiété observés plus tôt.
Cette technique repose sur ce que l’on appelle l’injection d’invites, où des invites soigneusement conçues influencent le comportement d’un chatbot. Dans ce cas, les invites de pleine conscience ont aidé à stabiliser les résultats du modèle après des entrées pénibles.


Bien qu’efficaces, les chercheurs notent que les injections rapides ne constituent pas une solution parfaite. Ils peuvent être utilisés à mauvais escient et ne changent pas la manière dont le modèle est entraîné à un niveau plus profond.
Il est également important d’être clair sur les limites de cette recherche. ChatGPT ne ressent ni peur ni stress. L’étiquette « anxiété » est une façon de décrire des changements mesurables dans ses modèles de langage, et non une expérience émotionnelle.
Néanmoins, comprendre ces changements donne aux développeurs de meilleurs outils pour concevoir des systèmes d’IA plus sûrs et plus prévisibles. Des études antérieures ont déjà laissé entendre que les invites traumatisantes pourraient rendre ChatGPT anxieux, mais cette recherche montre qu'une conception consciente des invites peut aider à la réduire.
Alors que les systèmes d’IA continuent d’interagir avec des personnes se trouvant dans des situations chargées d’émotion, les dernières découvertes pourraient jouer un rôle important dans la façon dont les futurs chatbots seront guidés et contrôlés.







