Ce qui s'est passé? Une étude majeure menée par l'Union européenne de radiodiffusion (UER) en coordination avec la BBC a révélé de graves failles dans la façon dont les assistants IA populaires traitent les requêtes liées à l'actualité, Gemini de Google se démarquant comme le moins performant dans l'ensemble.
- La recherche a analysé 3 000 réponses dans 14 langues provenant des principaux assistants, notamment ChatGPT, Microsoft Copilot, Gemini et Perplexity.
- Dans l'ensemble, 45 % des réponses de l'IA contenaient au moins une erreur majeure, y compris les cas où l'IA présentait ses opinions comme des faits (81 %) ou ajoutait ses propres opinions (73 %).
- Gemini a obtenu les pires résultats dans l'ensemble, avec 76 % de ses réponses montrant des erreurs majeures de sourçage ou des erreurs factuelles, soit le double du taux du prochain assistant Copilot (37 %), suivi de ChatGPT (36 %) et de Perplexity (30 %).
- Les erreurs courantes consistaient notamment à mélanger les sources, à utiliser des informations obsolètes ou à brouiller la frontière entre opinion et fait vérifié.
Ceci est important car : Si vous vous tournez vers un assistant IA pour obtenir des informations, ces résultats sont importants, en particulier lorsqu'un modèle s'en sort nettement moins bien que les autres.
- Alors que les outils d’IA remplacent de plus en plus les moteurs de recherche ou les résumés d’actualités, des réponses erronées peuvent induire les utilisateurs en erreur.
- Des erreurs de sourcing se produisent lorsqu’une IA fournit un fait sans le sauvegarder correctement, ce qui rend plus difficile pour les utilisateurs de faire confiance à la réponse.
- Alors que la confiance du public dans les médias est déjà fragile, les inexactitudes générées par l’IA peuvent rendre les gens encore plus cyniques quant à ce qui est réel et ce qui ne l’est pas.
- Le fait que Gemini ait largement sous-performé soulève des inquiétudes quant à la manière dont les différentes entreprises gèrent la vérification et la transparence des modèles.
Pourquoi devrais-je m’en soucier ? Vous utilisez peut-être déjà un assistant IA pour vous tenir au courant de l'actualité, mais si cet assistant s'avère être Gémeaux, cette étude suggère que vous courez un plus grand risque de désinformation.
- Si vous demandez à Gemini des informations sur l'actualité, il y a de fortes chances que la réponse contienne une erreur d'approvisionnement ou une erreur factuelle dans près de 3 réponses sur 4.
- Même si d’autres assistants ont obtenu de meilleurs résultats, ils ont quand même commis de nombreuses erreurs, prouvant qu’aucun modèle d’IA n’est entièrement fiable en matière d’informations factuelles.
- Le public plus jeune, en particulier celui des moins de 25 ans, est parmi les plus rapides à adopter l’IA pour les mises à jour de l’actualité, ce qui les rend également les plus exposés à la désinformation.
En fin de compte, les assistants IA peuvent vous aider à rester informé, mais ils ne doivent pas être votre seule source d’information.








