Les chatbots deviennent trop émotifs et les clients n'en sont pas contents

Les chatbots deviennent trop émotifs et les clients n'en sont pas contents

Lorsqu'un représentant du service client dit : « Je comprends totalement votre frustration », cela semble naturel. Lorsqu’un chatbot dit la même chose, quelque chose semble profondément faux. Aujourd’hui, les chercheurs ont confirmé cette intuition avec des données réelles.

Comme le rapporte Techxplore, une nouvelle étude publiée dans MIS Quarterly révèle que lorsque les chatbots IA expriment de l'empathie lors d'une panne de service, cela peut en réalité aggraver la situation des clients, au lieu de l'améliorer.

Pourquoi l’empathie des chatbots se retourne-t-elle contre vous ?

L'équipe de recherche de l'Université McGill, de l'Université de Floride du Sud et de l'Université baptiste de Hong Kong a mené trois expériences distinctes, au cours desquelles les participants ont interagi avec un chatbot de service qui a commis des erreurs. Dans certains cas, le chatbot a répondu avec des phrases empathiques telles que « Je ressens vraiment votre frustration » après les erreurs. Dans d'autres, il a simplement évolué sans tenir compte des émotions du client.

Les réponses empathiques n’ont pas été bien accueillies. Au lieu de calmer les clients, ils ont déclenché ce que les chercheurs appellent une « réactance psychologique », une réponse instinctive négative lorsque les gens sentent que leur sentiment de contrôle ou de liberté est menacé.

L’idée qu’une machine avait analysé et répondu à leur état émotionnel semblait plus envahissante que réconfortante. Cela a conduit les clients à se sentir moins satisfaits du service global.

Cela correspond à mon expérience personnelle. Lorsque les chatbots comme ChatGPT essaient d’être trop encourageants ou compréhensifs, cela ne semble pas bien. Cela s’apparente à l’étrange effet de vallée que je ressens lorsque je regarde du contenu généré par l’IA. Lorsque vous savez que vous discutez avec l’IA, un faux soutien émotionnel vous irrite plus que des réponses simples.

Alors, que devraient faire les chatbots à la place ?

Les chercheurs suggèrent que les entreprises ne devraient pas automatiquement équiper les chatbots de fonctionnalités d’empathie, en particulier lors de la gestion des pannes de service. Les avantages de l’empathie humaine ne se transfèrent pas simplement à l’IA.

Les chatbots peuvent explorer d'autres approches, comme l'humour, les compliments ou de simples excuses, qui n'ont pas la même connotation invasive.

Ce qu’il faut retenir est clair. Rendre un chatbot plus humain n’est pas toujours la bonne décision. Parfois, il est préférable de laisser un robot être un robot.

Rate this post
Total
0
Shares
Previous Post
Framework Laptop 16 obtient un meilleur pavé tactile, un nouveau look et une astuce eGPU sauvage

Framework Laptop 16 obtient un meilleur pavé tactile, un nouveau look et une astuce eGPU sauvage

Related Posts