Le procès ChatGPT affirme avoir conseillé un tireur sur comment et où frapper

Même ChatGPT est anxieux, alors les chercheurs lui ont donné une dose de pleine conscience pour se calmer

Le procureur général de Floride a ouvert une enquête criminelle sur OpenAI, alléguant que ChatGPT a aidé à planifier la fusillade de masse à l'université d'État de Floride qui a tué deux personnes l'année dernière.

Selon le Washington Post, le procureur général James Uthmeier a fait cette annonce lors d'une conférence de presse mardi, affirmant que le chatbot avait donné des conseils tactiques au tireur présumé. « Le chatbot a conseillé au tireur quel type d'arme utiliser, quelles munitions allaient avec quelle arme, si une arme serait utile ou non à courte portée », a déclaré Uthmeier.

Il n’a pas non plus retenu les implications : « Si c’était une personne à l’autre bout de cet écran, nous l’accuserions de meurtre. » Son bureau a également envoyé des assignations à comparaître à OpenAI, demandant à l'entreprise d'expliquer ses politiques sur la façon dont elle gère les conversations des utilisateurs impliquant des menaces de violence.

OpenAI est-il responsable de ce que les utilisateurs en font ?

OpenAI a fermement riposté. La porte-parole Kate Waters a déclaré : « La fusillade de masse de l'année dernière à l'université d'État de Floride a été une tragédie, mais ChatGPT n'est pas responsable de ce terrible crime. »

La société affirme que ChatGPT a fourni des réponses factuelles à des questions qui pouvaient être trouvées n'importe où sur Internet et qu'il n'a pas encouragé ni favorisé les activités illégales.

Est-ce seulement le début ?

Cette enquête s’inscrit dans le cadre d’une préoccupation croissante autour des chatbots IA. OpenAI est déjà sous surveillance après une fusillade de masse distincte au Canada et de multiples poursuites judiciaires de familles qui prétendent que ChatGPT a contribué à la mort d'êtres chers par suicide.

Les experts en IA soulignent que les garde-fous des chatbots sont imparfaits. Comme l’a dit Ramayya Krishnan, professeur à Carnegie Mellon : « Les garde-corps ne sont pas efficaces à 100 %. »

La question de savoir si OpenAI peut être tenue pénalement responsable est une question à laquelle il appartient aux tribunaux de répondre, mais personne ne peut nier que ces chatbots IA peuvent avoir de graves implications sur la santé mentale d'une personne et ne doivent être utilisés qu'avec la plus grande prudence.

Rate this post
Total
0
Shares
Previous Post
Les chatbots deviennent trop émotifs et les clients n'en sont pas contents

Les chatbots deviennent trop émotifs et les clients n'en sont pas contents

Related Posts