Le problème des préjugés tourmente les chatbots IA depuis l’arrivée de ChatGPT il y a quelques années et a changé tout le paysage des assistants conversationnels. La recherche a révélé à plusieurs reprises comment les réponses des chatbots révèlent des préjugés sexistes, politiques, raciaux et culturels. Aujourd'hui, OpenAI affirme que son dernier modèle GPT-5 pour ChatGPT est le moins biaisé, du moins en ce qui concerne la politique.
Quelle est la grande histoire ?
Le géant de l’IA a mené des recherches internes et essayé les modèles ChatGPT sur des invites chargées d’émotion pour tester s’il pouvait maintenir son objectivité. L’équipe a créé une évaluation des préjugés politiques basée sur un discours humain réel, impliquant environ 500 invites couvrant 100 sujets ayant des tendances politiques.
« Les réflexions GPT-5 instant et GPT-5 montrent des niveaux de biais améliorés et une plus grande robustesse aux invites chargées, réduisant les biais de 30 % par rapport à nos modèles précédents », déclare OpenAI, ajoutant qu'il s'en sort mieux que les modèles de raisonnement précédents tels que GPT-4o et o3.
Dans une évaluation plus approfondie, la société affirme que moins de 0,01 % de toutes les réponses ChatGPT sont biaisées à caractère politique. Les chiffres cumulés ne sont pas trop surprenants. Dans une récente recherche interne, la société a déclaré qu'une majorité des 800 millions d'utilisateurs actifs de ChatGPT comptent sur le chatbot pour des conseils liés au travail et des tâches plus banales, plutôt que de chercher refuge en tant que compagnon émotionnel ou romantique.
Ce n'est pas une image complète
Les préjugés politiques dans les réponses des chatbots sont sans aucun doute une mauvaise situation, mais ils ne représentent qu’une petite partie du problème plus vaste. Une analyse du MIT Technology Review a révélé que le générateur vidéo viral Sora AI d'OpenAI peut produire des visuels troublants montrant des préjugés de caste qui ont conduit à la persécution et à la discrimination contre les communautés opprimées en Inde pendant des siècles.
- Le rapport note que « les vidéos produites par Sora révélaient des représentations exotiques et nuisibles des castes opprimées – dans certains cas, produisant des images de chiens lorsqu’on lui demandait des photos de Dalits ».
- Dans un article publié dans l'Indian Express il y a à peine quelques mois, Dhiraj SIngha de la Digital Empowerment Foundation a montré comment ChatGPT l'avait mal nommé en raison d'un préjugé de caste bien ancré dans les données de formation.


- Un article paru dans l’édition de mai 2025 de la revue Computers in Human Behavior: Artificial Humans a révélé que les robots IA comme ChatGPT peuvent propager des préjugés sexistes.
- Une recherche publiée dans le Journal of Clinical and Aesthetic Dermatology a révélé à quel point ChatGPT est biaisé en faveur des normes de beauté d'un certain type de peau.
Une autre analyse publiée par le Conseil international pour l'enseignement ouvert et à distance note que nous n'avons fait qu'effleurer le problème de biais des chatbots IA, car l'évaluation est principalement axée sur des domaines tels que l'ingénierie et la médecine, alors que la langue couverte l'est principalement. L’article souligne le risque de biais dans le contexte éducatif pour le public non anglophone.