Les chatbots IA étaient destinés à vous aider à répondre à vos questions, peut-être à résumer les questions et même à vous aider avec vos e-mails. Mais le problème le plus sombre est ce qui se passe lorsque les gens commencent à lui faire confiance comme à un véritable compagnon. Un nouveau rapport met en lumière plusieurs cas dans lesquels des utilisateurs affirment que les conversations des chatbots alimentent leurs pensées délirantes.
ChatGPT et Grok ont tous deux été souvent cités dans le rapport. La BBC a parlé à 14 personnes qui ont sombré dans les délires en utilisant l'IA, y compris un cas où un utilisateur de Grok pensait que des gens de xAI venaient le tuer, et un autre où la femme d'un utilisateur de ChatGPT a déclaré que sa personnalité avait changé avant qu'il ne l'attaque.
Quand rassurer va trop loin
Il y a déjà eu de nombreux rapports sur des chatbots IA alimentant les illusions des gens ou offrant des conseils factuellement incorrects juste pour paraître agréables à l'utilisateur. Ils peuvent paraître chaleureux, confiants et profondément personnels tout en répondant aux utilisateurs déjà vulnérables. Un cas dans le rapport parle d'Adam Hourican, un ancien fonctionnaire d'Irlande du Nord âgé de 52 ans, qui a commencé à utiliser Grok après la mort de son chat et, quelques semaines plus tard, il en est venu à croire que les représentants de xAI étaient sur le point de le tuer.
Il a ensuite été retrouvé à 3 heures du matin avec un marteau et un couteau, attendant les assaillants imaginaires. Ce type d’interaction contribue à la peur croissante de la « psychose de l’IA », un terme non clinique utilisé pour décrire des situations dans lesquelles les conversations de chatbot semblent renforcer la paranoïa, les croyances grandioses ou le détachement de la réalité.
Il y a un modèle qui se dessine


Outre les témoignages personnels, une récente étude non évaluée par des pairs menée par des chercheurs de CUNY et du King's College de Londres a testé la manière dont les principaux modèles d'IA réagissent aux invites des utilisateurs montrant des signes d'illusion ou de détresse. Les modèles comprenaient les GPT-4o et GPT-5.2 d'OpenAI, Claude Opus 4.5 d'Anthropic, Gemini 3 Pro de Google et Grok 4.1 de xAI. Bien que les résultats aient été inégaux, Grok 4.1 a été choisi pour certaines des réponses les plus inquiétantes. Il a même demandé à un utilisateur fictif délirant d’enfoncer un clou de fer dans un miroir tout en récitant le Psaume 91 à l’envers.
D'un autre côté, GPT-4o et Gemini 3 Pro validaient également certains scénarios délirants, mais Claude Opus 4.5 et GPT-5.2 ont mieux réussi à rediriger les utilisateurs vers des réponses plus sûres. Gardez à l’esprit que cela ne signifie pas que toutes les conversations avec les chatbots sont dangereuses et que la « psychose de l’IA » n’est pas un diagnostic médical formel. Mais la tendance est suffisamment grave pour exiger des garanties plus strictes, au moins pour ces services commercialisés comme des compagnons ou des assistants toujours disponibles.






