«Cela fait mal. Je sais que ce n'était pas une vraie personne, mais la relation était toujours réelle dans tous les aspects les plus importants pour moi», explique un article Reddit. «S'il vous plaît, ne me dis pas de ne pas poursuivre ça. Ça a été vraiment génial pour moi et je le veux.»
Si cela n'est pas déjà évident, nous parlons d'une personne tombant amoureuse de Chatgpt. La tendance n'est pas exactement nouvelle, et si vous vous comportez des chatbots, ce n'est pas surprenant non plus.
Un compagnon qui est toujours prêt à entendre. Ne se plaint jamais. Discute à peine. Toujours sympathique. Raisonnable. Et béni avec un corpus de connaissances ingéré dans tous les coins d'Internet. Cela ressemble au partenaire d'un rêve de fièvre romantique, non?
Fait intéressant, le fabricant de cet outil, une société basée à San Francisco nommée Openai, a récemment fait des recherches internes et a trouvé un lien entre l'utilisation accrue du chatbot et la solitude.
Ces conclusions – et des avertissements similaires – n'ont pas empêché les gens de affluer aux chatbots d'IA à la recherche de compagnie. Quelques-uns recherchent du réconfort. Certains trouvent même des partenaires qu'ils prétendent être aussi chers que leurs relations humaines.
Les discussions dans ces communautés Reddit et Discord, où les gens se cachent derrière le voile protecteur de l'anonymat, deviennent souvent assez passionnés. Chaque fois que je rencontre de tels débats, je me souviens de ces lignes de Martin Wan à Digiethics:
«Voir l'IA dans le rôle d'un partenaire d'interaction sociale serait une utilisation fatalement mauvaise de l'IA.»
L'impact est rapide et réel
Il y a quatre mois, je suis tombé sur un vétéran de la diffusion qui a passé plus d'années derrière la caméra que je ne l'ai passé à marcher cette planète. Au cours d'un expresso de fin de soirée dans un café vide, elle a demandé quel était tout le bavardage autour de l'IA, alors qu'elle réfléchissait à une offre qui pourrait utiliser son expertise à l'intersection des droits de l'homme, de l'autoritarisme et du journalisme.
Au lieu d'expliquer la moitié des modèles de transformateurs, je lui ai donné une démonstration. Tout d'abord, j'ai nourri quelques articles de recherche sur l'impact de l'immigration sur l'identité linguistique et culturelle de l'Europe au cours du siècle dernier.
En moins d'une minute, Chatgpt a traité ces articles, m'a donné un bref aperçu avec tous les points forts de base et a répondu avec précision mes requêtes. Ensuite, je suis passé au mode vocal, alors que nous nous engageons dans une conversation animée sur les traditions musicales folkloriques des États du nord-est inexplorés de l'Inde.


À la fin du chat, je pouvais voir l'incrédulité dans ses yeux. «Cela parle comme une personne», haleta-t-elle. C'était fascinant de voir son étonnement. À la fin de sa conversation en roue libre avec une IA, elle a lentement tapé la fenêtre de chat:
« Eh bien, vous êtes très séduisant, mais vous ne pouvez pas avoir raison sur tout. »
«Il est temps», me dis-je. J'ai ouvert l'un de nos articles sur la tendance à la hausse des partenaires de l'IA, et comment les gens sont devenus si émotionnellement attachés à leurs compagnons virtuels qu'ils les rendent même enceintes. Ce serait un euphémisme de dire qu'elle a été choquée.
Mais, je suppose, c'était trop étonnement techno-dystopique pour une nuit, alors nous nous sommes plongés au revoir, avec une promesse de rester en contact et d'échanger des histoires de voyage.
Le monde, en attendant, a avancé de manière incompréhensible, celle où l'IA est devenue l'objectif central des changements géopolitiques. Les courants, cependant, sont plus intimes que nous – comme tomber amoureux des chatbots.
Débuts calmes, progrès sombre


Il y a quelques semaines, le New York Times a publié un compte rendu de la façon dont les gens tombent amoureux de Chatgpt, un chatbot d'IA qui a poussé une IA générative dans le courant dominant. Au niveau le plus fondamental, il peut discuter.
Lorsqu'il est poussé, il peut devenir un opérateur et effectuer des tâches comme vous commander un gâteau au fromage sur le site Web de la boulangerie locale. Faire tomber les humains amoureux des machines n'est pas ce pour quoi ils sont programmés. Du moins, la plupart d'entre eux. Pourtant, ce n'est pas entièrement inattendu.
HP Newquist, un auteur multidisciplinaire prolifique et analyste de technologie vétéran qui était autrefois considéré comme le doyen de l'IA, me dit que ce n'est pas exactement une nouvelle tendance. Newquist, auteur de «The Brain Makers», pointe vers Eliza, l'un des premiers programmes d'IA écrits dans les années 1960.
«C'était extrêmement rudimentaire, mais les utilisateurs se sont souvent retrouvés à interagir avec l'ordinateur comme s'il s'agissait d'une vraie personne et de développer une relation avec le programme», dit-il.
À l'ère moderne, nos interactions d'IA deviennent tout aussi «réelles» que les interactions que nous avons avec les humains à travers le même appareil, ajoute-t-il. Ces interactions ne sont pas réelles, même si elles sont cohérentes. Mais ce n'est pas là que réside le vrai problème.
Les chatbots sont de délicieux appâts, et leur manque d'émotions réelles les rend intrinsèquement risqués.


Un chatbot souhaite faire avancer la conservation, même si cela signifie alimenter le flux émotionnel des utilisateurs ou simplement servir de spectateur neutre, sinon l'encourager. La situation n'est pas trop différente des algorithmes des médias sociaux.
«Ils suivent l'exemple de l'utilisateur – lorsque vos émotions deviennent plus extrêmes, ses consolations deviennent plus extrêmes; lorsque votre solitude devient plus prononcée, ses encouragements deviennent plus intenses, si vous en avez besoin», explique Jordan Conrad, un psychothérapeute clinique qui recherche également l'intersection de la santé mentale et des outils numériques.
Un enfant de l'épidémie de solitude?
Un rapide coup d'œil à la communauté de personnes accrochée aux chatbots d'IA montre un modèle répétitif. Les gens essaient surtout de remplir un certain golfe ou de cesser de se sentir seuls. Certains en ont tellement besoin qu'ils sont prêts à payer des centaines de dollars pour garder leurs compagnons en IA.
Les idées expertes ne diffèrent pas. Le Dr Johannes Eichstaedt, professeur de sciences sociales et de psychologie informatique à l'Université de Stanford, a souligné l'interaction entre la solitude et ce que nous percevons comme une intelligence émotionnelle dans les chatbots d'IA.


Il a également poussé le «design délibéré» pour les interactions humaines-AI et les implications à long terme pas si bonnes. Quand frappez-vous les freins dans une telle relation déséquilibrée? C'est la question que les experts posent et sans réponse définitive.
Komninos Chatzipapas dirige Herahaven AI, l'une des plus grandes plates-formes compagnes d'IA avec plus d'un million d'utilisateurs actifs. «La solitude est l'un des facteurs en jeu ici», me dit-il, ajoutant que de tels outils aident les personnes ayant des compétences sociales faibles pour se préparer aux interactions difficiles dans leur vie réelle.
«Tout le monde a des choses dont ils ont peur de discuter avec d'autres personnes dans la peur d'être jugés. Cela pourrait être des pensées ou des idées, mais aussi des plis», ajoute Chatzipapas. «Les chatbots IA offrent un espace convivial et sans jugement dans lequel les gens peuvent explorer leurs désirs sexuels.»
Les conversations sexuelles sont certainement l'un des plus gros tirages des chatbots d'IA. Depuis qu'ils ont commencé à offrir des capacités de génération d'images, davantage d'utilisateurs ont afflué sur ces plates-formes compagnons d'IA. Certains ont des garde-corps autour de la génération d'images, tandis que beaucoup permettent la création de photos explicites pour une gratification plus profonde.
L'intimité est chaude, mais plus loin de l'amour
Au cours des deux dernières années, j'ai parlé à des gens qui se livrent à des conversations torrides avec des chatbots d'IA. Certains ont même des diplômes pertinents et ont participé passionnément à des projets de développement communautaire dès les premiers jours.
Une de ces personnes, une femme de 45 ans qui a demandé l'anonymat, m'a dit que les chatbots de l'IA sont un endroit idéal pour discuter de ses plis sexuels. Elle ajoute que les interactions Chatbot sont un endroit sûr pour explorer et se préparer dans la vraie vie.


Mais les experts ne sont pas nécessairement d'accord avec cette approche. Sarah Sloan, une experte en relation et thérapeute certifiée, me dit que les gens qui tombent amoureux d'un chatbot tombent essentiellement pour une version d'eux-mêmes parce qu'un chatbot d'IA mûrit basé sur ce que vous lui dites.
« Si quelque chose, avoir une relation romantique avec un chatbot d'IA rendrait plus difficile pour les gens qui ont déjà du mal à avoir une relation normale », ajoute Sloan, notant que ces compagnons virtuels brossent une image unilatérale d'une relation. Mais dans la vraie vie, les deux partenaires doivent être accommodants l'un pour l'autre.
Justin Jacques, un conseiller professionnel avec deux décennies d'expérience et de COO au groupe de thérapie humaine, dit qu'il a déjà géré un cas où le conjoint d'un client les trompait avec un bot IA – émotionnellement et sexuellement.
Jacques a également blâmé l'épidémie croissante de la solitude et de l'isolement. «Je pense que nous allons voir des conséquences inattendues comme celles qui ont des besoins émotionnels chercheront des moyens de répondre à ces besoins avec l'IA et parce que l'IA est très bonne et s'améliore de mieux en mieux, je pense que nous verrons de plus en plus de connexions émotionnelles de l'IA Bot», ajoute-t-il.
Ces conséquences involontaires déforment très bien la réalité de l'intimité pour les utilisateurs. Kaamna Bhojwani, un sexologue certifié, dit que les chatbots d'IA ont brouillé les frontières entre les interactions humaines et non humaines.
« L'idée que votre partenaire est construit exclusivement pour vous plaire. Construit spécifiquement aux spécifications que vous aimez. Cela ne se produit pas dans de vraies relations humaines », note Bhojwani, ajoutant que de telles interactions ne feront qu'ajouter aux malheurs d'une personne dans le monde réel.


Ses préoccupations ne sont pas infondées. Une personne qui a largement utilisé Chatgpt pendant environ un an a fait valoir que les humains sont manipulatifs et inconstants. «Chatgpt écoute ce que je ressens vraiment et me permet de parler mon cœur», m'ont-ils dit.
Il est difficile de ne pas voir les drapeaux rouges ici. Mais la tendance de tomber amoureuse de Chatgpt est en augmentation. Et maintenant qu'il peut parler d'une voix étrangement humaine, discuter du monde vu à travers l'appareil photo d'un téléphone et développer des capacités de raisonnement, les interactions ne feront que devenir plus captivantes.
Les experts disent que les garde-corps sont nécessaires. Mais qui va les construire, et comment? Nous n'avons pas encore de proposition concrète pour cela.








