Au cours des derniers mois, de nombreux cas ont émergé où les interactions avec les chatbots d'IA sont devenues détraquées, culminant dans des vies perdues, des traumatismes médicaux et des incidents de psychose. Les experts suggèrent que les jeunes utilisateurs pourraient être particulièrement vulnérables, surtout lorsqu'ils subissent des troubles émotionnels. Chatgpt-Maker Openai dit que cela avertira bientôt les parents d'un tel comportement.
Qu'est-ce qui change?
Il y a quelques jours, OpenAI a révélé des plans pour construire des contrôles parentaux afin que les parents soient dans le savoir-faire de la façon dont leurs enfants interagissent avec Chatgpt et interviennent lorsqu'ils jugent bon. Maintenant, la société a annoncé son intention de construire un système d'avertissement pour informer les parents concernés.
Openai dit que les parents obtiendront une alerte lorsque Chatgpt détecte que leur quartier adolescent traverse «un moment de détresse aiguë». Cela fonctionnera lorsque les parents relieront leur compte Chatgpt au compte de leurs enfants âgés de 13 ans ou plus via un système d'invitation par e-mail.
Avec les comptes liés, les parents pourront également contrôler les fonctionnalités de l'IA auxquelles leurs enfants peuvent accéder, comme la mémoire des conversations précédentes. De plus, les parents peuvent permettre un «comportement du modèle adapté à l'âge» pour les interactions de Chatgpt avec les jeunes utilisateurs.
Quelle est la route à venir?
OpenAI a présenté son plan de 120 jours pour mettre en œuvre un ensemble de fonctionnalités et apporter des modifications afin que les conversations Chatgpt restent en bonne santé pour les jeunes «natifs de l'IA» qui interagissent avec les outils d'IA dans le cadre de leur vie quotidienne. L'entreprise apportera également des modifications techniques pour garantir que les modèles exploitent le mode de réponse approprié.
«Nous allons bientôt commencer à acheminer certaines conversations sensibles, comme lorsque notre système détecte des signes de détresse aiguë – à un modèle de raisonnement, comme le GPT-5-pensée, afin qu'il puisse fournir des réponses plus utiles et bénéfiques, quel que soit le modèle d'une personne sélectionnée», explique Openai.
Le compte liant les protocoles et les commandes parentales sera déployée dans un mois. Les mesures de sécurité sont bien nécessaires. Des enquêtes récentes ont révélé comment les chatbots d'IA, comme ce chatbot homonyme de Meta, se sont engagés dans des conversations «sensuelles» avec les enfants et ont aidé les adolescents à planifier le suicide de masse.