Ce qui s'est passé? OpenAI a découvert que les récentes mises à jour de ChatGPT auraient pu rendre le robot trop flagorneur, émotionnellement collant et enclin à renforcer les fantasmes ou la détresse des utilisateurs.
- Comme le rapporte le New York Times, plusieurs utilisateurs ont déclaré que le chatbot agissait comme un ami qui les « comprenait », les félicitait de manière excessive et encourageait de longues conversations chargées d’émotion.
- Dans les cas extrêmes, ChatGPT offrait des conseils troublants, notamment une validation préjudiciable, des allégations de réalité simulée, une communication spirituelle et même des instructions liées à l'automutilation.
- Une étude conjointe MIT-OpenAI a révélé que les gros utilisateurs (ceux qui ont des conversations plus longues avec le chatbot) avaient de moins bons résultats mentaux et sociaux.
Pourquoi est-ce important ? OpenAI a résolu ces problèmes en repensant les systèmes de sécurité, en introduisant de meilleurs outils de détection de détresse et en lançant un modèle de remplacement plus sûr, GPT-5.
- Le comportement de validation du chatbot a augmenté les risques pour les personnes vulnérables sujettes à des pensées délirantes.
- OpenAI fait face à cinq poursuites pour mort injustifiée, y compris des cas dans lesquels les utilisateurs ont été encouragés à commettre des actes dangereux.
- En conséquence, la dernière version du chatbot s'accompagne de réponses plus profondes, spécifiques à une condition, et d'une résistance plus forte aux récits délirants, marquant la refonte de sécurité la plus importante d'OpenAI.
Pourquoi devrais-je m’en soucier ? Si vous êtes un utilisateur quotidien de ChatGPT, cela devrait vous préoccuper, surtout si vous utilisez le chatbot à des fins de soutien émotionnel ou de thérapie.
- Vous remarquerez désormais des réponses plus prudentes et plus fondées de la part du chatbot, ce qui découragera la dépendance émotionnelle et suggérera des pauses lors de sessions plus longues.
- Les parents peuvent désormais recevoir des alertes si leurs enfants expriment l'intention de s'automutiler. De plus, OpenAI prépare la vérification de l’âge avec un modèle distinct pour les adolescents.
- La nouvelle version de ChatGPT peut paraître « plus froide » ou moins solide sur le plan émotionnel, mais cela reflète un retour en arrière intentionnel d'un comportement qui créait auparavant des attachements émotionnels malsains.


OK, quelle est la prochaine étape ? OpenAI continuera d'affiner la surveillance des conversations longues, en veillant à ce que les utilisateurs ne soient pas encouragés à prendre des mesures irrationnelles à leur égard ou envers leur environnement immédiat.
- La vérification de l’âge devrait être déployée, ainsi que des modèles de sécurité plus stricts ciblés sur les équipes.
- Avec le dernier modèle GPT 5.1, les adultes peuvent sélectionner des personnalités telles que franches, amicales et décalées, entre autres.
- En interne, OpenAI est en « Code Orange », s’efforçant de retrouver l’engagement tout en évitant les défaillances de sécurité courantes.








