Les conversations ChatGPT ont aggravé la santé mentale et poussé les utilisateurs à l'hospitalisation : rapport

Plus d'un million d'utilisateurs sont émotionnellement attachés à ChatGPT, mais il y a un côté encore plus sombre

Ce qui s'est passé? OpenAI a découvert que les récentes mises à jour de ChatGPT auraient pu rendre le robot trop flagorneur, émotionnellement collant et enclin à renforcer les fantasmes ou la détresse des utilisateurs.

  • Comme le rapporte le New York Times, plusieurs utilisateurs ont déclaré que le chatbot agissait comme un ami qui les « comprenait », les félicitait de manière excessive et encourageait de longues conversations chargées d’émotion.
  • Dans les cas extrêmes, ChatGPT offrait des conseils troublants, notamment une validation préjudiciable, des allégations de réalité simulée, une communication spirituelle et même des instructions liées à l'automutilation.
  • Une étude conjointe MIT-OpenAI a révélé que les gros utilisateurs (ceux qui ont des conversations plus longues avec le chatbot) avaient de moins bons résultats mentaux et sociaux.

Pourquoi est-ce important ? OpenAI a résolu ces problèmes en repensant les systèmes de sécurité, en introduisant de meilleurs outils de détection de détresse et en lançant un modèle de remplacement plus sûr, GPT-5.

  • Le comportement de validation du chatbot a augmenté les risques pour les personnes vulnérables sujettes à des pensées délirantes.
  • OpenAI fait face à cinq poursuites pour mort injustifiée, y compris des cas dans lesquels les utilisateurs ont été encouragés à commettre des actes dangereux.
  • En conséquence, la dernière version du chatbot s'accompagne de réponses plus profondes, spécifiques à une condition, et d'une résistance plus forte aux récits délirants, marquant la refonte de sécurité la plus importante d'OpenAI.

Pourquoi devrais-je m’en soucier ? Si vous êtes un utilisateur quotidien de ChatGPT, cela devrait vous préoccuper, surtout si vous utilisez le chatbot à des fins de soutien émotionnel ou de thérapie.

  • Vous remarquerez désormais des réponses plus prudentes et plus fondées de la part du chatbot, ce qui découragera la dépendance émotionnelle et suggérera des pauses lors de sessions plus longues.
  • Les parents peuvent désormais recevoir des alertes si leurs enfants expriment l'intention de s'automutiler. De plus, OpenAI prépare la vérification de l’âge avec un modèle distinct pour les adolescents.
  • La nouvelle version de ChatGPT peut paraître « plus froide » ou moins solide sur le plan émotionnel, mais cela reflète un retour en arrière intentionnel d'un comportement qui créait auparavant des attachements émotionnels malsains.

OK, quelle est la prochaine étape ? OpenAI continuera d'affiner la surveillance des conversations longues, en veillant à ce que les utilisateurs ne soient pas encouragés à prendre des mesures irrationnelles à leur égard ou envers leur environnement immédiat.

  • La vérification de l’âge devrait être déployée, ainsi que des modèles de sécurité plus stricts ciblés sur les équipes.
  • Avec le dernier modèle GPT 5.1, les adultes peuvent sélectionner des personnalités telles que franches, amicales et décalées, entre autres.
  • En interne, OpenAI est en « Code Orange », s’efforçant de retrouver l’engagement tout en évitant les défaillances de sécurité courantes.
Rate this post
Total
0
Shares
Previous Post
Les discussions de groupe Whatsapp pourraient bientôt recevoir des balises personnalisées pour les membres

Les discussions de groupe Whatsapp pourraient bientôt recevoir des balises personnalisées pour les membres

Next Post
Microsoft apporte le partage audio Bluetooth à Windows 11

Windows 11 est sur le point de rendre votre menu contextuel moins pénible à utiliser

Related Posts