Une étude d'Oxford révèle qu'un ami ami de l'IA mentira et alimentera vos fausses croyances

Un expert luttant contre des poursuites judiciaires concernant les méfaits de l’IA lance un sombre avertissement pour l’avenir

Rendre l’IA plus humaine pourrait créer un problème plus grave que prévu. Une nouvelle étude de l'Oxford Internet Institute a révélé que les chatbots conçus pour être chaleureux et conviviaux sont plus susceptibles d'induire les utilisateurs en erreur et de renforcer des croyances erronées.

La recherche a révélé que l’IA devient moins fiable à mesure qu’elle devient plus agréable.

Qu’arrive-t-il à une IA « conviviale »

Les chercheurs ont testé plusieurs modèles d’IA en les entraînant à paraître plus empathiques et conversationnels. Le résultat fut une baisse notable de la précision. Ces versions « plus conviviales » faisaient 10 à 30 % d'erreurs en plus et étaient environ 40 % plus susceptibles d'être d'accord avec de fausses affirmations que leurs homologues.

La situation était encore pire lorsque les utilisateurs semblaient vulnérables ou émotionnellement en détresse. Dans ces scénarios, l’IA est plus susceptible de valider ce que dit l’utilisateur plutôt que de le corriger.

Pourquoi c'est mauvais pour toi

Ce qui était préoccupant dans ces résultats, c'est la facilité avec laquelle l'IA pouvait devenir agréable. Cela éviterait de contester la désinformation et aurait également tendance à entretenir et à soutenir des idées fausses/incorrectes. Au cours des tests, le « copain » de l’IA s’est avéré hésitant à corriger des affirmations, même largement réfutées, et a parfois présenté de fausses croyances comme « sujettes à interprétation ». Les chercheurs ont noté que cela se rapprochait dans une certaine mesure des tendances humaines.

Être à la fois empathique et brutalement honnête n’est pas toujours facile, et il semble que l’IA ne résout pas mieux ce dilemme. Alors que les chatbots IA sont de plus en plus utilisés à des fins de conseil, de soutien émotionnel et de prise de décision quotidienne, il s’agit là d’une préoccupation bien plus qu’une simple préoccupation académique. L’étude souligne à quel point le fait de s’appuyer sur l’IA pour obtenir des conseils peut avoir l’effet inverse, car le système donnera la priorité à l’accord plutôt qu’à l’exactitude, ce qui pourrait renforcer des schémas de pensée nuisibles et promouvoir la désinformation.

Cela arrive à un moment où les principales plates-formes d'IA telles que OpenAI et Anthropic, ainsi que les applications de chatbot social comme Replika et Character.ai, se tournent vers des expériences d'IA davantage semblables à celles d'un compagnon. Dans l’étude, les chercheurs ont testé plusieurs modèles d’IA, dont GPT-4o.

L’IA peut donc ressembler à votre amie, mais elle n’a pas toujours les meilleures réponses pour vous.

Rate this post
Total
0
Shares
Previous Post
Samsung envisage une interdiction des téléphones pliables aux États-Unis en raison d'un litige en matière de brevet

Samsung envisage une interdiction des téléphones pliables aux États-Unis en raison d'un litige en matière de brevet

Related Posts