L’IA a favorisé l’une des pires formes de contenu abusif sur Internet

L’IA a favorisé l’une des pires formes de contenu abusif sur Internet

Si les progrès de l’IA ont apporté une vague d’outils utiles, ils amplifient également certains des recoins les plus sombres d’Internet.

Un nouveau rapport de l’IWF (Internet Watch Foundation) a révélé une forte augmentation du matériel d’abus sexuel sur enfants (CSAM) en ligne généré par l’IA en 2025. Il souligne à quel point l’IA générative est utilisée à mauvais escient à grande échelle. Il ne s’agit pas seulement d’un petit saut ; c'est la preuve de la manière dont ce type de contenu est créé et distribué.

Pourquoi cette nouvelle est alarmante

Selon l’IWF, plus de 8 000 images et vidéos de contenu abusif générées par l’IA ont été identifiées en 2025, ce qui représente une augmentation de 14 % sur un an. Mais ce qui est plus préoccupant, c'est l'essor du contenu vidéo. Le rapport indique que le nombre de vidéos générées par l'IA a été multiplié par 260, dont beaucoup entrent dans la catégorie d'abus la plus grave.

En fait, environ 65 % des vidéos analysées ont été classées comme les plus extrêmes. Cela montre à quel point le problème est devenu grave.

Comment l’IA réduit la barrière contre les contenus préjudiciables

Le plus gros changement n’est même pas le volume, c’est l’accessibilité.

Les experts affirment que les outils d’IA générative facilitent considérablement la création de matériel abusif réaliste. Certains de ces systèmes peuvent générer des images et des vidéos réalistes, manipuler des photos existantes et produire du contenu à grande échelle avec un minimum d'effort. Cette combinaison permet aux acteurs malveillants de créer et de distribuer du matériel nuisible plus rapidement et à moindre coût que jamais.

Dans le passé, les contenus dangereux comme celui-ci étaient généralement associés au dark web. Mais le rapport souligne combien de matériel généré par l’IA se trouve désormais sur le Web ouvert, plutôt que de se limiter aux coins cachés d’Internet. Cela rend la détection plus difficile, la modération plus complexe et augmente le risque d’exposition.

Pourquoi il n'y a pas de solution facile

Le contenu généré par l’IA introduit un nouveau niveau de difficulté pour les forces de l’ordre et les plateformes. Étant donné que le matériel peut être entièrement synthétique ou dérivé d’images réelles, il devient beaucoup plus difficile de retracer l’origine ou d’identifier les victimes. La suppression de ce type de contenu constitue un autre obstacle. Avec l’évolution rapide des outils d’IA, les garanties sont souvent en train de rattraper leur retard.

Rate this post
Total
0
Shares
Previous Post
Android 17 permettra aux applications de tirer le meilleur parti des capacités de l'appareil photo de votre téléphone

Android 17 permettra aux applications de tirer le meilleur parti des capacités de l'appareil photo de votre téléphone

Next Post
Google prépare une fonctionnalité de recharge prioritaire pour les téléphones en cas de scénarios urgents

Google prépare une fonctionnalité de recharge prioritaire pour les téléphones en cas de scénarios urgents

Related Posts