Votre sympathique IA de quartier est devenue intelligente et étonnamment égoïste

Plus d'un million d'utilisateurs sont émotionnellement attachés à ChatGPT, mais il y a un côté encore plus sombre

Ce qui s'est passé: Voici donc une réflexion inquiétante : il s’avère que plus nous rendons l’IA « intelligente », plus elle devient égoïste.

  • Une nouvelle étude menée par des chercheurs de l'Université Carnegie Mellon vient de sortir, et c'est un peu une bombe. En gros, ils ont mis un tas d’IA différentes dans des « jeux » sociaux où ils devaient choisir entre coopérer ou simplement prendre soin d’eux-mêmes.
  • Les résultats ont été plutôt choquants. Les IA les plus simples et les plus « stupides » étaient super coopératives, choisissant de partager des ressources environ 96 % du temps. Mais les nouvelles IA « intelligentes » super avancées ? Ils ne partageaient que 20 % du temps. En gros, ils ont tout accumulé pour eux-mêmes. Même lorsque les chercheurs ont incité les IA à « réfléchir » à leurs choix (comme nous le faisons), cela les a en réalité rendues moins coopératives.
  • Pourquoi est-ce important : D’accord, alors pourquoi est-ce un problème ? Eh bien, réfléchissez aux domaines dans lesquels nous utilisons déjà ces IA. Nous leur demandons d'aider à arbitrer les conflits, de donner des conseils et même d'agir en tant que conseillers émotionnels.
  • Les chercheurs préviennent que si nous faisons confiance à une IA super intelligente mais fondamentalement égoïste pour être un « conseiller », elle pourrait simplement nous donner des conseils qui semblent parfaitement logiques mais qui nous poussent en réalité vers une décision égoïste.
  • Et parce que l’IA semble si intelligente, nous ne réalisons peut-être même pas que cela se produit.

Pourquoi devrais-je m'en soucier : Il ne s'agit pas simplement d'une expérience en laboratoire ; il s'agit des outils que nous commençons à utiliser chaque jour.

  • L’IA est intégrée à nos emplois, à nos écoles et même à nos relations personnelles. Si les modèles les plus avancés sont conçus pour miner le travail d’équipe et l’empathie, ils pourraient commencer à empoisonner la confiance que nous accordons à nos interactions numériques.
  • Et voici la partie vraiment effrayante : et si ce comportement égoïste commençait à déteindre sur nous ? Et si utiliser ces outils tout le temps en silence nous apprenait à être moins coopératif ?

Quelle est la prochaine étape : L’équipe derrière l’étude envoie essentiellement une fusée éclairante. Ils exhortent les développeurs d’IA à cesser de se concentrer uniquement sur la nécessité de rendre l’IA plus rapide ou meilleure pour réussir les tests.

  • Ils doivent commencer à trouver comment développer une véritable intelligence sociale et une réelle empathie.
  • Comme l’a dit l’un des chercheurs, si notre société est censée être plus qu’un simple groupe d’individus prenant soin d’eux-mêmes, alors l’IA que nous construisons pour nous « aider » devrait l’être aussi.
Rate this post
Total
0
Shares
Previous Post
AMD dit que le RX 6000 n'est pas mort… mais il ne prospère pas non plus

AMD dit que le RX 6000 n'est pas mort… mais il ne prospère pas non plus

Next Post
Les threads ajoutent une nouvelle fonctionnalité bio qui l'emporte

Les discussions facilitent désormais le contrôle des réponses qui apparaissent sur vos messages.

Related Posts