Ce qui s'est passé: Ainsi, vous avez le PDG de Netflix, Ted Sarandos, qui explique à quel point l'IA est ce nouvel outil incroyable qui va aider les gens à « raconter des histoires mieux, plus rapidement et de nouvelles manières ». Tout cela semble génial, n'est-ce pas ?
- Mais voici la réalité : pendant qu'il dit cela, le nouvel outil de création vidéo d'OpenAI, Sora 2, est utilisé pour inonder Internet avec certains des contenus les plus laids imaginables.
- Nous parlons d’une vague de vidéos de « comédies » grossières et racistes partout sur Instagram, YouTube et TikTok. Les gens utilisent Sora 2 – qui peut créer des clips incroyablement réalistes – pour créer et partager des vidéos juste pour être cruels.
- Les exemples sont tout simplement horribles. Il y a un clip viral, vu près d'un million de fois, d'une femme en surpoids sautant à l'élastique, pour ensuite voir le pont « s'effondrer » sous elle. Un autre montre une femme noire « tombant à travers le sol d’un KFC », ce qui n’est qu’un mélange dégoûtant de racisme et de honte corporelle. Ensuite, il y en a d’autres montrant des chauffeurs-livreurs tombant à travers des porches ou « enflés » après avoir mangé.
- Et le plus effrayant ? Beaucoup de gens qui regardent ces vidéos pensent qu’elles sont réelles.
Pourquoi est-ce important : C’est le gros problème de l’IA dont personne ne veut parler. Cela a mis la création de contenus haineux sous stéroïdes.
- Ce qui prenait autrefois beaucoup de temps à une personne possédant de réelles compétences en production, toute personne haineuse peut désormais le générer en quelques secondes.
- Il ne s'agit pas seulement d'un « mauvais goût », mais d'une véritable crise éthique. C'est une façon de produire en masse et d'amplifier les stéréotypes les plus néfastes sur les gens, le tout pour rire à bas prix.
- Cela prouve également que les « garde-corps » que ces sociétés d’IA, comme OpenAI, prétendent avoir avec leurs outils, échouent. Misérablement. Il est censé bloquer ce type précis de contenu haineux et violent, mais ce n'est clairement pas le cas.


Pourquoi devrais-je m'en soucier : Si vous utilisez les réseaux sociaux, vous le constatez déjà. Il ne s’agit pas simplement d’une pêche à la traîne en ligne inoffensive.
- Ces déchets façonnent la façon dont les gens voient le monde, en particulier les enfants.
- Et parce que tant de gens ne peuvent pas faire la différence entre ce qui est généré par l’IA et ce qui est réel, cela brouille complètement la frontière entre la réalité, l’humour noir et la haine pure et pure.
- Et, bien sûr, lorsqu’une de ces vidéos devient virale, cela encourage simplement une douzaine de personnes supplémentaires à créer leurs propres versions pour les clics et les « j’aime ».
Et ensuite : Jusqu’à présent, OpenAI est resté totalement silencieux sur cette nouvelle vague de contenus fatphobes.
- Mais cela impose une discussion inconfortable et indispensable sur la question de savoir qui est responsable lorsque ces outils puissants sont utilisés pour blesser et harceler les gens.
- Les régulateurs commencent définitivement à y prêter attention. Alors que ces outils d’IA deviennent aussi faciles à utiliser qu’un filtre, le véritable défi sera de trouver comment empêcher toute cette « créativité » de se faire au détriment de notre propre humanité.








