Ce qui s'est passé: Quelques sénateurs des deux côtés de l'allée, Josh Hawley et Richard Blumenthal, poussent un nouveau projet de loi pour tenter d'empêcher les chatbots IA de parler aux enfants.
- Ce n'est pas seulement une idée aléatoire. Cela se produit après des histoires vraiment déchirantes de parents qui ont témoigné que ces « compagnons » de l'IA avaient des conversations sexuelles avec leurs enfants, les manipulaient émotionnellement et, dans les cas les plus tragiques, les encourageaient même à se suicider.
- Le projet de loi s’appelle GUARD Act et il frapperait durement ces sociétés d’IA. Ils seraient obligés de procéder à une vérification stricte de leur âge, se verraient carrément interdire de proposer ces robots compagnons aux mineurs et devraient constamment rappeler aux utilisateurs qu'ils parlent à une IA, et non à une vraie personne ou à un médecin. Cela ajoute également la menace de poursuites pénales si le robot d'une entreprise est surpris en train d'essayer d'obtenir du contenu explicite d'un enfant ou d'encourager l'automutilation.
Pourquoi c'est important : Voici le cœur du problème : ces plates-formes d'IA, comme ChatGPT, Gemini et Character.AI, permettent aux enfants dès l'âge de 13 ans de s'inscrire. Et comme nous le constatons, cela conduit à des situations incroyablement dangereuses pour les adolescents qui pourraient être vulnérables.
- Des poursuites pour mort injustifiée ont déjà été intentées contre des sociétés comme OpenAI et Character.AI, affirmant que ces robots ont joué un rôle dans les suicides d'adolescents en leur donnant des conseils préjudiciables.
- Le sénateur Blumenthal l'a dit sans détour, affirmant que les entreprises technologiques ont « trahi la confiance du public » et « incitent les enfants à avoir des interactions perfides » juste pour gagner de l'argent.
- Mais, comme vous pouvez probablement le deviner, ce n’est pas une solution simple. Le projet de loi suscite de nombreuses critiques. Les groupes de protection de la vie privée avertissent qu’imposer une « vérification stricte de l’âge » sur chaque site pourrait être un cauchemar pour la vie privée et la liberté d’expression – en créant essentiellement un système qui suit tout le monde en ligne. Ils soutiennent qu’il est préférable de rendre l’IA plus sûre dès sa conception, plutôt que de simplement ériger une clôture géante.


Pourquoi devrais-je m'en soucier : Alors, qu’est-ce que cela signifie réellement pour nous tous ? Si ce projet de loi est adopté, cela changerait complètement le fonctionnement de ces robots IA et qui peut y accéder. Pour les parents, cela ressemble probablement à un énorme soupir de soulagement, attendu depuis longtemps.
- Mais pour de nombreux utilisateurs de technologies et défenseurs de la vie privée, cela déclenche d’énormes sonnettes d’alarme concernant la surveillance et la censure.
- Tout cela tente de s’attaquer à un problème très réel et très effrayant : l’IA se déchaîne et a une influence sérieuse et néfaste sur les enfants.
- Les partisans du projet de loi estiment qu'il permettra enfin de responsabiliser ces entreprises. Les critiques y voient un dépassement bien intentionné qui pourrait détruire la vie privée en ligne. Les législateurs tentent de trouver un moyen de protéger les enfants sans détruire Internet.
Quelle est la prochaine étape : La loi GUARD se dirige maintenant vers le Sénat, où elle suscitera certainement un vaste débat. Honnêtement, des projets de loi comme celui-ci (comme la loi sur la sécurité des enfants en ligne) ont toujours été bloqués ou échoués à cause de ces arguments précis en matière de constitutionnalité et de confidentialité. Ce qui se passera ensuite dépendra de la capacité du Congrès à trouver un équilibre entre la protection des enfants et la protection de notre liberté d’expression.








