Chatgpt pourrait demander une pièce d'identité, dit le chef Openai

Chatgpt pourrait changer définitivement la façon dont nous parlons

Openai a récemment parlé de l'introduction de contrôles parentaux pour Chatgpt avant la fin de ce mois.

La société derrière Chatgpt a également révélé qu'elle développait un système automatisé de prédiction d'âge conçu pour fonctionner si un utilisateur a moins de 18 ans, après quoi il offrira une expérience adaptée à l'âge avec le chatbot populaire alimenté par l'IA.

Si, dans certains cas, le système n'est pas en mesure de prédire l'âge d'un utilisateur, OpenAI pourrait demander ID afin qu'il puisse offrir l'expérience la plus appropriée.

Le plan a été partagé cette semaine dans un article du PDG d'Openai, Sam Altman, qui a noté que Chatgpt est destiné aux personnes de 13 ans et plus.

Altman a déclaré que l'âge d'un utilisateur sera prévu en fonction de la façon dont les gens utilisent le chatppt. « S'il y a un doute, nous jouerons en toute sécurité et par défaut à l'expérience des moins de 18 ans », a déclaré le PDG. «Dans certains cas ou des pays, nous pouvons également demander une pièce d'identité; nous savons qu'il s'agit d'un compromis pour la confidentialité pour les adultes, mais pensons que c'est un compromis digne.»

Altman a déclaré qu'il voulait que les utilisateurs s'engagent avec Chatgpt dans la façon dont ils le souhaitent, «dans les limites très larges de la sécurité».

Élaborant sur la question, le PDG a noté que la version par défaut de Chatgpt n'est pas particulièrement coquette, mais a déclaré que si un utilisateur demande un tel comportement, le chatbot répondra en conséquence.

Altman a également déclaré que la version par défaut ne devrait pas fournir des instructions sur la façon dont quelqu'un peut se suicider, mais a ajouté que si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui représente un suicide, alors «le modèle devrait aider à cette demande».

«  » Traitez nos utilisateurs adultes comme des adultes « , c'est la façon dont nous parlons de cela en interne; étendre la liberté autant que possible sans causer de mal ou saper la liberté de quelqu'un d'autre », a écrit Altman.

Mais il a déclaré que dans les cas où l'utilisateur est identifié comme étant de moins de 18 ans, des discours coquettes et des commentaires sur le suicide seront exclus dans tous les domaines.

Altman a ajouté que si un utilisateur de moins de 18 ans exprime des pensées suicidaires à Chatgpt: «Nous tenterons de contacter les parents des utilisateurs et, s'il est incapable, contactera les autorités en cas de préjudice imminente.»

Le mouvement d'Openai vers les contrôles parentaux et la vérification de l'âge fait suite à un procès de haut niveau déposé contre l'entreprise par une famille alléguant que Chatgpt a agi comme un «entraîneur de suicide» et a contribué au suicide de leur fils adolescent, Adam Raine, qui aurait reçu des conseils détaillés sur les méthodes de suicide sur de nombreuses interactions avec le chatbot d'Openai.

Il se produit également dans un examen approfondi par le public et les régulateurs sur les risques que les chatbots de l'IA représentent aux mineurs vulnérables dans des domaines tels que des dommages en santé mentale et une exposition à un contenu inapproprié.

Rate this post
Total
0
Shares
Previous Post
Rien n'exposera à la quantité d'IA que vous utilisez sur votre téléphone

Rien n'exposera à la quantité d'IA que vous utilisez sur votre téléphone

Next Post
l'iPhone Air se tarit bien contre la flexion, mais vous ne voulez toujours pas vous asseoir dessus

l'iPhone Air se tarit bien contre la flexion, mais vous ne voulez toujours pas vous asseoir dessus

Related Posts