Plus d'un million d'utilisateurs sont émotionnellement attachés à ChatGPT, mais il y a un côté encore plus sombre

Plus d'un million d'utilisateurs sont émotionnellement attachés à ChatGPT, mais il y a un côté encore plus sombre

Ce qui s'est passé? OpenAI a modifié la façon dont ChatGPT gère les conversations délicates lorsque les gens se tournent vers lui pour obtenir un soutien émotionnel. La société a mis à jour ses spécifications de modèle et son modèle par défaut, GPT-5, pour refléter la manière dont ChatGPT gère les conversations sensibles liées à la psychose/manie, à l'automutilation et au suicide, ainsi qu'à la dépendance émotionnelle à l'égard de l'assistant.

Ceci est important car : La dépendance émotionnelle basée sur l’IA est réelle, dans la mesure où les utilisateurs nouent des attachements unilatéraux aux chatbots.

  • OpenAI estime qu'environ 0,15 % des utilisateurs actifs hebdomadaires montrent des signes d'attachement émotionnel au modèle, et 0,03 % des messages pointent vers le même risque.
  • Ce même chiffre de 0,15 % s’applique aux conversations indiquant une planification ou une intention suicidaire, tandis que 0,05 % des messages montrent des idées suicidaires.
  • Adapté à l'énorme base d'utilisateurs de ChatGPT, cela représente plus d'un million de personnes nouant des liens émotionnels avec l'IA.
  • OpenAI rapporte de grosses améliorations après la mise à jour. Les réponses indésirables dans ces domaines ont chuté de 65 à 80 %, et les mauvais résultats liés à la dépendance émotionnelle ont chuté d'environ 80 %.

Comment ça s'améliore: La version mise à jour introduit de nouvelles règles concernant la sécurité de la santé mentale et les relations dans le monde réel, garantissant que l'IA réagit avec compassion sans prétendre être un thérapeute ou un ami.

  • OpenAI a travaillé avec plus de 170 experts en santé mentale pour remodeler le comportement des modèles, ajouter des outils de sécurité et élargir les conseils.
  • GPT-5 peut désormais détecter les signes de manie, de délires ou d'intentions suicidaires, et répond en toute sécurité en reconnaissant les sentiments tout en dirigeant doucement les utilisateurs vers de l'aide dans le monde réel.
  • Une nouvelle règle garantit que ChatGPT n'agit pas comme un compagnon et n'encourage pas la dépendance émotionnelle ; cela renforce plutôt la connexion humaine.
  • Le modèle peut désormais donner la priorité aux outils fiables ou aux ressources expertes lorsque ceux-ci correspondent à la sécurité des utilisateurs.

Pourquoi devrais-je m’en soucier ? Les questions émotionnelles et éthiques ne concernent pas seulement les adultes qui s’attachent aux chatbots ; ils abordent également la manière dont l’IA interagit avec les enfants qui ne comprennent peut-être pas pleinement son impact.

  • Si vous vous êtes déjà confié à ChatGPT lors d'une période difficile, cette mise à jour vise à assurer votre sécurité émotionnelle.
  • Désormais, ChatGPT sera plus sensible aux signaux émotionnels et aidera les utilisateurs à trouver de l'aide réelle au lieu de la remplacer.
Rate this post
Total
0
Shares
Previous Post
Vous avez payé le prix fort pour un iPhone, maintenant Apple veut que vous voyiez aussi des publicités

Vous avez payé le prix fort pour un iPhone, maintenant Apple veut que vous voyiez aussi des publicités

Next Post
Gemini de Google vient de rendre la création de présentations aussi simple que de taper une pensée

Gemini de Google vient de rendre la création de présentations aussi simple que de taper une pensée

Related Posts