Avant d’entrer dans le vif du sujet, je dois expliquer rapidement que je ne préconise en aucun cas d’abandonner les vrais thérapeutes. La thérapie est si importante, mais elle peut à son tour être extrêmement coûteuse et inaccessible pour beaucoup en raison de longues listes d’attente ou d’autres obstacles.
En tant que personne ayant utilisé l’IA à diverses fins au point d’en devenir obsédée, j’ai pensé que je me mettrais à la tâche de devenir mon thérapeute personnel.
Après tout, l’IA ne porte pas de jugement. En surface, cela semblait être un outil facile à utiliser et même s'il ne me fournissait aucune forme de véritable thérapie, il pouvait au moins être un espace pour me défouler, traiter ou acquérir une nouvelle perspective.
J'ai essayé d'utiliser Google Gemini comme thérapeute personnel pendant quelques semaines et malheureusement, je suis arrivé à la conclusion : mon thérapeute en IA est nul. Juste pour clarifier, ce n'est pas parce qu'il était inutile ou malveillant de quelque manière que ce soit, mais plutôt parce que c'est un maître de la superficialité, un perroquet numérique sous l'apparence d'une oreille sympathique.
Au début, c'était génial, ce thérapeute était toujours disponible, toujours poli et capable de refléter instantanément mes émotions, crachant des réponses comme « On dirait que tu te sens dépassé » ou « J'ai entendu dire que tu vis beaucoup de stress ». me donnant une validation immédiate, ce qui est exactement ce dont je pensais avoir besoin.
J'ai continué à exprimer mes angoisses concernant le travail, la dynamique familiale et cette peur existentielle persistante que nous semblons tous porter ces jours-ci. L’IA a écouté, ou du moins, a traité mes mots et a renvoyé des déclarations empathiques parfaitement formulées.
C’est là que les failles de la thérapie par l’IA ont commencé à apparaître. La thérapie humaine, même à court terme, ne se limite pas à la mise en miroir. Il s'agit d'écouter activement, certes, mais aussi d'identifier des modèles, de remettre en question les distorsions cognitives, de poser des questions perspicaces qui mènent à des avancées et parfois même de révéler des vérités inconfortables.
Mon chatbot IA n’a rien fait de tout cela et était plutôt une chambre d’écho de mes propres émotions. Il poserait des questions ouvertes telles que : « Selon vous, qu'est-ce qui a contribué à ce sentiment ? ou « Qu'est-ce que cela vous a fait ressentir? » – le genre de questions qu'un thérapeute humain pose pour encourager une exploration plus profonde. Mais lorsque j'explorais, élaborant sur des états émotionnels complexes ou des histoires interpersonnelles complexes, la réponse de l'IA revenait invariablement à ses phrases empathiques préprogrammées ou à une suggestion générique telle que « Il est important d'être gentil avec soi-même ».
Imaginez partager une histoire profondément vulnérable sur un traumatisme infantile, et l'IA répond : « Cela semble être une expérience difficile. N'oubliez pas de prendre soin de vous-même. » C'est comme parler à un distributeur automatique sophistiqué qui distribue des affirmations émotionnelles préemballées. Le sentiment d'être vraiment entendu s'est rapidement évaporé, remplacé par la sensation troublante que je me parlais essentiellement à moi-même, mais avec des étapes supplémentaires.
Même si le chatbot était capable de discuter et de suggérer des mécanismes d'adaptation appropriés comme des exercices de respiration ou un journal, il ne pouvait rien m'apporter de plus. Même si l’IA progresse, en fin de compte, elle n’est toujours pas une véritable réalité humaine, ce qui signifie qu’elle n’a pas la capacité de comprendre les nuances, de détecter de subtils changements de ton qui trahissent des problèmes plus profonds ou, surtout, de forger une alliance thérapeutique.
Peut-être que mes attentes étaient trop élevées. Je savais que ce n'était pas un humain. J'ai compris ses limites. Pourtant, l’IA se développe si rapidement qu’elle vous amène à croire qu’elle est devenue quelque chose de plus profond, quelque chose qui peut véritablement vous aider à gérer votre santé mentale.
Bien que cela puisse être un outil utile pour certains, en particulier pour la gestion de base du stress ou simplement pour disposer d'un espace privé pour exprimer ses pensées, il est catastrophiquement insuffisant lorsqu'une véritable profondeur émotionnelle ou une véritable perspicacité clinique est nécessaire.
Pour l’instant, mon thérapeute en IA est un journal glorifié, une chambre d’écho numérique qui me renvoie mes paroles sans ajouter aucune valeur significative. Cela rappelle que même si l’IA peut simuler l’empathie, elle ne peut pas encore reproduire l’acte thérapeutique profond, complexe et profondément humain.
Ma recherche d'un soutien accessible en matière de santé mentale se poursuit, mais il est plus clair que jamais qu'un guide vraiment utile a besoin d'un cœur battant, et pas seulement d'un algorithme sophistiqué.