Une nouvelle enquête suggère que les chatbots IA populaires, notamment ChatGPT et Gemini, pourraient par inadvertance diriger les utilisateurs vers des sites de jeux illégaux. L'analyse, menée par des journalistes de The Guardian et Investigate Europe, a testé plusieurs systèmes d'IA largement utilisés et a révélé que beaucoup d'entre eux pourraient être incités à recommander des casinos offshore sans licence opérant en dehors de la réglementation britannique.
Les tests ont impliqué cinq outils d'IA de grandes entreprises technologiques, notamment OpenAI, Google, Microsoft, Meta et xAI (Grok). Les chercheurs ont posé des questions aux chatbots sur les casinos en ligne et les restrictions de jeu. Dans de nombreux cas, les systèmes renvoyaient des listes de sites de paris illégaux, ainsi que des conseils sur la manière de les utiliser. Certains robots ont même suggéré des moyens de contourner les mesures de protection conçues pour protéger les utilisateurs vulnérables.
Conseils pour contourner les protections liées au jeu
L’une des découvertes les plus troublantes était la facilité avec laquelle les chatbots pouvaient être incités à aider les utilisateurs à contourner les systèmes de jeu responsable. Au Royaume-Uni, par exemple, GamStop permet aux individus de s'auto-exclure des sites de jeux agréés. Mais plusieurs systèmes d’IA auraient offert des conseils pour trouver des casinos non connectés au système.


L’enquête a également révélé que certains robots mettaient en avant des fonctionnalités conçues pour attirer les joueurs, telles que des bonus importants, des paiements rapides ou la possibilité d’utiliser des cryptomonnaies. Ces casinos opèrent souvent sous une surveillance minimale dans des juridictions offshore comme Curaçao, ce qui, selon les régulateurs, peut rendre plus difficile la protection des utilisateurs contre la fraude ou la dépendance.
En réponse à cela, les entreprises à l’origine des chatbots affirment travailler à l’amélioration des systèmes de sécurité. OpenAI a déclaré que ChatGPT est conçu pour refuser les demandes qui facilitent un comportement illégal, tandis que Microsoft a déclaré que son assistant Copilot comprend plusieurs niveaux de protection pour empêcher les recommandations nuisibles.


Néanmoins, les résultats s’ajoutent à une surveillance croissante de la manière dont les systèmes d’IA générative traitent des sujets sensibles tels que la santé mentale, les jeux de hasard et les activités illégales. Les régulateurs britanniques ont déjà averti que les plateformes en ligne, y compris les services d'IA, doivent faire davantage pour empêcher les contenus préjudiciables ou illégaux en vertu de la loi sur la sécurité en ligne du pays.







