OpenAI semble annoncer de nouveaux modèles d'IA d'ici la semaine pour améliorer son chatbot Chatgpt pour l'amélioration de ses 400 millions d'utilisateurs. Cependant, la facilité que l'outil d'IA offre semble prouver qu'il est possible d'avoir trop de bonnes choses.
La société d'intelligence artificielle se plonge maintenant dans les ramifications psychologiques potentielles que Chatgpt pourrait avoir sur ses utilisateurs. OpenAI a publié les résultats d'une étude en deux parties terminée aux côtés du MIT Media Lab, qui a révélé un lien entre l'utilisation accrue du chatbot Chatgpt et les sentiments accrus de solitude des utilisateurs.
Chaque organisation a mené une étude indépendante, puis a compilé les résultats à une conclusion consolidée. L'étude d'OpenAI a examiné plus d'un mois «plus de 40 millions d'interactions Chatgpt», qui n'incluaient pas la participation humaine pour maintenir la confidentialité des utilisateurs. Pendant ce temps, le MIT a observé environ 1 000 participants utilisant Chatgpt sur 28 jours. Actuellement, les études n'ont pas encore été évaluées par les pairs.
L'étude du MIT a plongé dans différentes fonctions d'utilisation qui pourraient affecter l'expérience émotionnelle des utilisateurs en interagissant avec Chatgpt, y compris en utilisant du texte ou de la voix. Les résultats ont révélé que soit le support avait le potentiel de provoquer de la solitude ou d'affecter la socialisation des utilisateurs pendant la période de l'étude. L'inflexion vocale et le choix du sujet étaient également un point de comparaison majeur.
Un ton neutre utilisé en mode vocal de Chatgpt était moins susceptible de conduire à un résultat émotionnel négatif pour les participants. Pendant ce temps, l'étude a observé une corrélation entre les participants ayant des conversations personnelles avec Chatgpt et la probabilité accrue de solitude; Cependant, ces effets étaient à court terme. Ceux qui utilisent le chat textuel pour converser sur des sujets généraux ont connu des instances accrues de dépendance émotionnelle à l'égard du chatbot.
L'étude a également observé que ceux qui ont déclaré voir Chatgpt comme un ami, et ceux qui avaient déjà une propension à un fort attachement émotionnel dans les relations, étaient plus susceptibles de se sentir plus solidaires et plus dépendant émotionnellement du chatbot lors de la participation à l'étude.
L'étude d'OpenAI a ajouté un contexte supplémentaire, ses résultats notant dans l'ensemble que l'interaction avec le chatppt à des fins émotionnelles était rare. De plus, l'étude a révélé que même parmi les lourds utilisateurs qui ont mis en œuvre la fonctionnalité de mode vocale avancé sur le chatbot et étaient plus susceptibles de répondre à qu'ils considéraient Chatgpt comme un ami, ce groupe de participants a connu de faibles réactions émotionnelles pour interagir avec le chatbot.
OpenAI a conclu que son intention avec ces études est de comprendre les défis qui pourraient survenir en raison de sa technologie, ainsi que de pouvoir définir des attentes et des exemples sur la façon dont ses modèles devraient être utilisés.
Alors qu'Openai suggère que son étude basée sur l'interaction simule les comportements de vraies personnes, plus de quelques vrais humains ont admis sur des forums publics, comme Reddit, à utiliser Chatgpt à la place d'un thérapeute avec leurs émotions.