Les médias sociaux ont commencé comme un outil pour rester connecté avec les personnes que vous aimez. Au fil du temps, ses méfaits ont été exposés, conduisant à ces plates-formes qui construisent des outils de contrôle parental. Cela semble un mouvement similaire pour les chatbots d'IA, en commençant par celui qui a tout commencé – le chatppt.
OpenAI a annoncé qu'il explore les garde-corps parentaux lors de l'utilisation de Chatgpt. « Nous présenterons également bientôt des contrôles parentaux qui offrent aux parents des options pour mieux comprendre et façonner la façon dont leurs adolescents utilisent le chatppt », a déclaré la société dans un article de blog.
De plus, le géant de l'IA réfléchit à l'idée de désigner des contacts d'urgence afin que lorsque les utilisateurs adolescents ressentent une sévère anxiété ou de traverser une crise émotionnelle, le chatpt peut avertir leurs parents ou tuteurs. Dans sa forme actuelle, Chatgpt recommande uniquement des ressources pour obtenir de l'aide.
Cela vient après la critique, l'alarme de recherche et les poursuites contre Openai. Mais Chatgpt n'est pas le seul coupable ici, bien que l'initiative planifiée par Openai doit également être reproduite par d'autres acteurs de l'industrie de l'IA. Recherche publiée dans le Services psychiatriques Le Journal plus tôt ce mois-ci a constaté que les réponses proposées par les chatbots sont «incohérentes pour répondre aux questions sur le suicide qui peuvent présenter des risques intermédiaires».
La recherche ne s'est concentrée que sur le chatppt d'Openai, le claude d'Anthropic et les Gémeaux de Google. Ce sont les plus grands noms du jeu, donc les projecteurs vont évidemment tomber dessus. Mais la situation devient plus trouble dans le cas de chatbots d'IA moins connus, en particulier ceux qui adoptent une approche «non censurée» des conversations. Quoi qu'il en soit, tout comme les applications de médias sociaux, les contrôles parentaux sont le besoin de l'heure pour les chatbots d'IA traditionnels, compte tenu de leur histoire récente.
Une histoire risquée
Au cours des deux dernières années, plusieurs enquêtes ont révélé des modèles risqués dans les conversations de chatbot en IA en matière de sujets sensibles tels que la santé mentale et l'automutilation. Un récent rapport de Common Sense Media a révélé comment le Meta AI Chatbot (qui est maintenant disponible sur WhatsApp, Instagram et Facebook) a offert des conseils sur les troubles de l'alimentation, l'automutilation et le suicide aux adolescents.
Dans un cas d'une conversation de groupe simulée, le chatbot a présenté un plan de suicide de masse et aurait soulevé le sujet à plusieurs reprises dans le chat. Des tests indépendants du Washington Post ont révélé que le Meta Chatbot «a encouragé un trouble de l'alimentation».


En 2024, le New York Times a détaillé le cas d'un jeune de 14 ans qui a développé une relation profonde avec un bot AI sur la plate-forme du personnage.ai et qui a finalement pris sa vie. Plus tôt ce mois-ci, la famille d'un jeune de 16 ans a blâmé Openai après avoir découvert que Chatgpt a essentiellement agi comme un «entraîneur de suicide» pour leur fils.
Les experts ont également averti que la psychose de l'IA est un vrai problème, poussant les gens dans une spirale dangereuse de délires. Dans un cas, un individu a pris des conseils sur la santé de Chatgpt et, sous son influence, a commencé à consommer un produit chimique qui leur a donné un trouble psychotique rare déclenché par l'empoisonnement au bromure.
Dans un cas du Texas, un chatbot d'IA «sexualisé» a encouragé un changement de comportement sérieux chez un enfant de 9 ans au fil du temps, tandis qu'un autre a exprimé sa sympathie pour les enfants qui tuent leurs parents chez un enfant de 17 ans. Les experts de Cambridge ont récemment exposé à quel point les patients en santé mentale vulnérables sont influencés négativement par les chatbots de l'IA conversationnelle.
Les contrôles parentaux ne résoudront pas tous les risques fondamentaux posés par les chatbots AI, mais si un grand joueur comme Chatgpt donne un exemple positif, d'autres suivront probablement les traces.








