L’intelligence artificielle a sans aucun doute apporté de nombreux outils utiles à Internet. Mais cela a également donné un nouvel élan à l’une des formes d’abus les plus horribles. Des rapports récents et des conclusions d’organismes de surveillance soulignent le même schéma laid d’IA générative aidant les délinquants à créer des images d’abus sexuels sur des enfants à plus grande échelle.
Celles-ci deviennent désormais de plus en plus réalistes et dans des formats de plus en plus difficiles à gérer pour les plateformes, les régulateurs et les groupes de protection des enfants.
Comment l’IA aggrave l’échelle et le contenu plus extrême
En février dernier, Reuters révélait que les rapports exploitables sur les images d’abus sexuels sur enfants générées par l’IA avaient plus que doublé au cours des deux dernières années, tandis que l’Internet Watch Foundation a déclaré plus tard avoir identifié 8 029 images et vidéos d’abus sexuels sur enfants générées par l’IA rien qu’en 2025. Ce sombre tableau a également été présenté dans un rapport de Bloomberg sur la façon dont l’IA générative change le paysage du matériel pédopornographique aux États-Unis.
Les enquêteurs ne s'occupent plus seulement d'images et de vidéos pornographiques générées par l'IA, mais aussi d'images manipulées de vrais enfants et même de conversations de chatbot dans lesquelles les délinquants chercheraient des conseils de toilettage ou joueraient un rôle d'abus sexuel. Pendant ce temps, les forces de l’ordre passent du temps à essayer de déterminer si un enfant sur une image est réel, modifié numériquement ou entièrement faux.
Les cas réels deviennent de plus en plus inquiétants


Le rapport fait référence à une affaire du Minnesota impliquant William Michael Haslach, un surveillant des repas scolaires et un agent de la circulation, accusé d'avoir utilisé des outils d'IA pour déshabiller numériquement des enfants sur des photos qu'il avait prises au travail. Les agents fédéraux ont identifié plus de 90 victimes et trouvé près de 800 images d'abus générées par l'IA sur ses appareils. Cela montre comment les délinquants utilisent de plus en plus de photos quotidiennes tirées des réseaux sociaux pour créer du matériel explicite.
Les enquêteurs croulent sous le volume et les mauvaises pistes
La balance devient rapidement moche. Bloomberg rapporte que le NCMEC a reçu 1,5 million de rapports CSAM liés à l'IA en 2025, contre 67 000 un an plus tôt et 4 700 en 2023. Dans le même temps, les enquêteurs affirment que les systèmes de modération automatisés génèrent un flot de conseils indésirables, submergeant des groupes de travail déjà surchargés. Et chaque mauvais appel fait perdre du temps qui aurait pu être consacré à un enfant confronté à un préjudice immédiat.





