Il semble que le moment de calculer pour les chatbots d'IA soit là. Après de nombreux rapports détaillant le comportement problématique et les incidents mortels impliquant l'interaction des enfants et des adolescents avec les chatbots d'IA, le gouvernement américain intervient enfin. La Federal Trade Commission (FTC) a demandé aujourd'hui aux fabricants de chatbots d'IA populaires pour détailler comment ils testent et évaluent la pertinence de ces «compagnons d'IA pour les enfants».
Ce qui se passe?
Soulignant comment les goûts de Chatgpt, Gemini et Meta peuvent imiter la communication humaine et les relations personnelles, l'agence note que ces chatbots d'IA poussent les adolescents et les enfants à établir la confiance et les relations. La FTC cherche désormais à comprendre comment les entreprises derrière ces outils évaluent l'aspect de sécurité et limitent l'impact négatif sur le jeune public.
Dans une lettre adressée aux géants de la technologie développant des chatbots d'IA, la FTC leur a posé des questions sur le public prévu de leurs compagnons d'IA, les risques qu'ils posent et la façon dont les données sont gérées. L'agence a également demandé des éclaircissements sur la façon dont ces entreprises «Monétiser l'engagement des utilisateurs; traiter les entrées des utilisateurs; partager les données de l'utilisateur avec des tiers; générer des sorties; mesurer, tester et surveiller les impacts négatifs avant et après le déploiement; développer et approuver les caractères, qu'ils soient créés par l'entreprise ou les utilisateurs.»
L'agence cherche Meta, Alphabet (la société mère de Google), Instagram, Snap, Xai et Openai pour répondre à ses questions concernant les chatbots d'IA et s'ils sont conformes à la règle des enfants en ligne sur la loi sur la protection de la protection de la vie privée. «L'étude que nous lançons aujourd'hui nous aidera à mieux comprendre comment les entreprises de l'IA développent leurs produits et les mesures qu'ils prennent pour protéger les enfants», a expliqué le président de la FTC, Andrew N. Ferguson.
Il y a plus d'action Brewing
Le problème de la FTC est un grand pas en avant vers la demande de responsabilité des sociétés d'IA concernant la sécurité des chatbots d'IA. Plus tôt ce mois-ci, une enquête de Media à but non lucratif de Common Sense a révélé que le chatbot Gemini de Google est un outil à haut risque pour les enfants et les adolescents. Dans les tests, les Gémeaux ont été vus dispensant un contenu lié au sexe, aux drogues, à l'alcool et aux suggestions de santé mentale dangereuses aux jeunes utilisateurs. Le chatbot de l'IA de Meta a été aperçu en soutenant les plans de suicide il y a quelques semaines.


Ailleurs, l'État de Californie a adopté un projet de loi qui vise à réglementer les chatbots d'IA. Le projet de loi SB 243 a été avancé avec le support bipartite, et il cherche à obliger les sociétés à créer des protocoles de sécurité et à être tenus responsables s'ils nuisent aux utilisateurs. Le projet de loi oblige également les chatbots «compagnons» pour émettre des avertissements récurrents sur leurs risques et leurs divulgations annuelles de transparence.
Bragasé par les incidents récents où des vies ont été perdues sous l'influence des chatbots d'IA, Chatgpt obtiendra bientôt des contrôles parentaux et un système d'avertissement pour les gardiens lorsque leurs jeunes quartiers montrent des signes de détresse grave. Meta a également apporté des modifications afin que ses chatbots d'IA évitent de parler de sujets sensibles.








