L'IA de Reddit pense apparemment qu'un stupéfiant mortel est un bon conseil pour la santé

Certains contenus Reddit pourraient bientôt être verrouillés derrière un mur de paiement

Ce qui s'est passé: Eh bien, le nouveau chatbot IA de Reddit sème déjà le chaos. Le robot, appelé « Réponses », est censé aider les gens en résumant les informations des anciens messages. Selon un rapport de 404media, le dernier chatbot de Reddit suggère désormais des stupéfiants durs pour traiter la douleur chronique.

  • Lorsque quelqu’un l’a interrogé sur la gestion de la douleur chronique, il a souligné un commentaire d’utilisateur qui disait : « L’héroïne, ironiquement, m’a sauvé la vie dans ces cas-là. »
  • Et c'est encore pire. Quelqu'un d'autre lui a posé une question et il a recommandé le kratom, un extrait de plante interdit dans certains endroits et associé à de graves problèmes de santé.
  • Le plus effrayant est que Reddit teste ce bot directement dans les conversations actives, donc ses terribles conseils apparaissent là où tout le monde peut les voir. Les responsables de ces communautés, les modérateurs, ont déclaré qu'ils ne pouvaient même pas désactiver cette fonctionnalité.

Pourquoi est-ce important : Il s’agit d’un exemple parfait, bien que terrifiant, de l’un des plus gros problèmes actuels de l’IA.

  • Le bot ne comprend rien. Il est tout simplement très efficace pour trouver et répéter ce que les humains ont écrit en ligne – et il ne peut pas faire la différence entre un conseil utile, une blague sarcastique ou une suggestion véritablement dangereuse.
  • Le vrai danger est que cela place ces choses au milieu de conversations où des personnes réelles et vulnérables recherchent de l'aide, et cela présente l'information comme si c'était un fait.

Pourquoi devrais-je m'en soucier : Alors pourquoi est-ce important pour vous ? Parce que cela montre à quel point ces outils d’IA peuvent être risqués lorsqu’ils sont lâchés sans laisse, surtout lorsqu’il s’agit de quelque chose d’aussi grave que votre santé. Même si vous ne demandez jamais d’avis médical à un chatbot, ses mauvaises suggestions peuvent commencer à polluer les communautés en ligne, rendant plus difficile de savoir à qui ou à quoi faire confiance.

Quelle est la prochaine étape : Après que les gens aient (à juste titre) paniqué, Reddit a confirmé qu'ils retiraient le robot de toute discussion liée à la santé. Mais ils sont restés plutôt discrets quant à savoir s’ils mettaient de véritables filtres de sécurité sur le bot lui-même. Donc, pour l’instant, le problème est corrigé, pas nécessairement résolu.

Rate this post
Total
0
Shares
Previous Post
Samsung aurait annulé ses forfaits de téléphones minces prévus pour le Galaxy S26 Edge

Samsung aurait annulé ses forfaits de téléphones minces prévus pour le Galaxy S26 Edge

Next Post
OnePlus 15 : ce que nous savons jusqu’à présent

OnePlus 15 : ce que nous savons jusqu’à présent

Related Posts