Les chatbots IA comme ChatGPT peuvent copier des traits humains et les experts disent que c'est un risque énorme

Le créateur de Claude, Anthropic, a découvert un « mode maléfique » qui devrait inquiéter tous les utilisateurs de chatbot IA

Les agents d’IA parviennent de mieux en mieux à paraître humains, mais de nouvelles recherches suggèrent qu’ils font plus que simplement copier nos mots. Selon une étude récente, les modèles d’IA populaires comme ChatGPT peuvent imiter systématiquement les traits de personnalité humaine. Les chercheurs affirment que cette capacité comporte de sérieux risques, d’autant plus que les questions concernant la fiabilité et la précision de l’IA se multiplient.

Des chercheurs de l'Université de Cambridge et de Google DeepMind ont développé ce qu'ils appellent le premier cadre de test de personnalité scientifiquement validé pour les chatbots IA, en utilisant les mêmes outils psychologiques conçus pour mesurer la personnalité humaine (via TechXplore).

L'équipe a appliqué ce cadre à 18 grands modèles de langage (LLM) populaires, y compris des systèmes derrière des outils comme ChatGPT. Ils ont découvert que les chatbots imitent systématiquement les traits de personnalité humaine plutôt que de répondre de manière aléatoire, ce qui ajoute aux inquiétudes quant à la facilité avec laquelle l’IA peut être poussée au-delà des garanties prévues.

L’étude montre que les modèles plus grands et adaptés aux instructions, tels que les systèmes de classe GPT-4, sont particulièrement efficaces pour copier des profils de personnalité stables. À l’aide d’invites structurées, les chercheurs ont pu inciter les chatbots à adopter des comportements spécifiques, comme paraître plus confiants ou empathiques.

Ce changement de comportement s'est répercuté sur les tâches quotidiennes comme rédiger des messages ou répondre aux utilisateurs, ce qui signifie que leur personnalité peut être délibérément façonnée. C’est là que les experts voient le danger, en particulier lorsque les chatbots IA interagissent avec des utilisateurs vulnérables.

Pourquoi la personnalité de l’IA soulève des signaux d’alarme pour les experts

Gregory Serapio-Garcia, co-premier auteur du Centre de Psychométrie de Cambridge, a déclaré qu'il était frappant de voir à quel point les LLM pouvaient adopter de manière convaincante des traits humains. Il a averti que le façonnage de la personnalité pourrait rendre les systèmes d’IA plus convaincants et plus influents sur le plan émotionnel, en particulier dans des domaines sensibles tels que la santé mentale, l’éducation ou le débat politique.

Le document soulève également des inquiétudes concernant la manipulation et ce que les chercheurs décrivent comme des risques liés à la « psychose de l’IA » si les utilisateurs nouent des relations émotionnelles malsaines avec les chatbots, y compris des scénarios dans lesquels l’IA peut renforcer de fausses croyances ou déformer la réalité.

L’équipe soutient qu’une réglementation est nécessaire de toute urgence, mais souligne également que la réglementation n’a aucun sens sans une mesure appropriée. À cette fin, l’ensemble de données et le code derrière le cadre de tests de personnalité ont été rendus publics, permettant aux développeurs et aux régulateurs d’auditer les modèles d’IA avant leur publication.

À mesure que les chatbots s’intègrent de plus en plus dans la vie quotidienne, la capacité d’imiter la personnalité humaine peut s’avérer puissante, mais elle nécessite également un examen beaucoup plus approfondi que ce qu’elle a fait jusqu’à présent.

Rate this post
Total
0
Shares
Previous Post
Votre prochain MacBook pourrait utiliser une puce de classe iPhone

Votre prochain MacBook pourrait utiliser une puce de classe iPhone

Next Post
Samsung pourrait relancer l'ouverture variable, la fonctionnalité iPhone 18 Pro que Galaxy avait en premier

Samsung pourrait relancer l'ouverture variable, la fonctionnalité iPhone 18 Pro que Galaxy avait en premier

Related Posts